← 返回列表
英伟达发布新一代 AI 芯片 H200,推理性能提升2倍
英伟达发布H200 AI芯片
英伟达正式发布新一代AI芯片H200,专为大规模语言模型训练和推理优化。相比前代H100,H200在性能和能效方面都有显著提升。
核心规格
- 显存容量:141GB HBM3e显存,比H100增加80%
- 显存带宽:4.8TB/s,提升40%
- 推理性能:在Llama 2 70B模型上推理速度提升90%
- 能效比:每瓦性能提升约30%
技术亮点
H200采用了英伟达最新的Hopper架构改进版,主要优化包括:改进的Tensor Core,支持更低精度的计算;优化的显存控制器,减少数据访问延迟;增强的NVLink互联,支持更大规模的GPU集群。
市场定位
H200主要面向超大规模AI训练和推理场景,目标客户包括:云服务提供商(AWS、Azure、Google Cloud);大型AI研究实验室(OpenAI、Anthropic等);金融、医疗等行业的AI应用企业。受限于产能,H200初期供应紧张,主要优先满足大客户订单。英伟达表示将在2024年内逐步扩大产能,满足市场需求。