← 返回列表

英伟达发布新一代 AI 芯片 H200,推理性能提升2倍

发布日期:2026-04-05 来源:AI科技资讯 阅读:374

英伟达发布H200 AI芯片

英伟达正式发布新一代AI芯片H200,专为大规模语言模型训练和推理优化。相比前代H100,H200在性能和能效方面都有显著提升。

核心规格

  • 显存容量:141GB HBM3e显存,比H100增加80%
  • 显存带宽:4.8TB/s,提升40%
  • 推理性能:在Llama 2 70B模型上推理速度提升90%
  • 能效比:每瓦性能提升约30%

技术亮点

H200采用了英伟达最新的Hopper架构改进版,主要优化包括:改进的Tensor Core,支持更低精度的计算;优化的显存控制器,减少数据访问延迟;增强的NVLink互联,支持更大规模的GPU集群。

市场定位

H200主要面向超大规模AI训练和推理场景,目标客户包括:云服务提供商(AWS、Azure、Google Cloud);大型AI研究实验室(OpenAI、Anthropic等);金融、医疗等行业的AI应用企业。受限于产能,H200初期供应紧张,主要优先满足大客户订单。英伟达表示将在2024年内逐步扩大产能,满足市场需求。