英伟达(NVIDIA)T4 是一款面向数据中心和人工智能推理任务的高性能计算提速卡,属于 Tesla 系列 的产品,发布于 2018 年。它在当时是专为 AI 推理、机器学习、虚拟化和边缘计算等场景设计的中高端 GPU。
主要参数:
- GPU 架构:Turing(图灵架构)
- CUDA 核心数:2560 个
- 显存容量:16 GB GDDR6
- 显存带宽:320 GB/s
- FP16 性能:65 TFLOPS(用于 AI 推理)
- INT8 性能:130 TOPS(AI 推理优化)
- TDP(功耗):70W(被动散热,无需外接电源)
- 外形尺寸:单槽、半高、PCIe 接口
定位与级别:
1. 应用定位
- AI 推理为主:T4 被广泛用于部署深度学习模型的推理阶段(如图像识别、语音识别、自然语言处理),而非训练。
- 云服务和虚拟化:由于其低功耗和良好的虚拟化支持(支持 vGPU 技术),T4 被大量用于云计算平台(如 AWS、Google Cloud、阿里云等)提供 GPU 实例。
- 边缘计算:适合部署在边缘服务器中,执行实时 AI 推理任务。
2. 性能级别
- 属于 中高端推理卡,在发布时性能优于前代 P4 和 M60,在 INT8 和 FP16 推理性能上表现优秀。
- 相比于训练卡(如 V100、A100),T4 不适合大规模模型训练,但在推理效率和能效比方面非常出色。
- 与后续推出的 A 系列(如 A10、A30、A100) 相比,T4 属于上一代产品,性能较低,但成本和功耗也更低。
总结:
NVIDIA T4 是一款中高端的数据中心级推理 GPU,定位于 AI 推理、云服务和边缘计算场景,具有高能效比、低功耗和良好虚拟化支持的特点。
虽然不是当前最顶级的 GPU(已被 A 系列取代),但由于其稳定性和广泛生态支持,至今仍在许多云平台和企业环境中广泛使用。
✅ 一句话总结:T4 是一款面向 AI 推理和云服务的中高端数据中心 GPU,适合高效、低功耗的 AI 部署任务。