英伟达尖端图像处理半导体H200开始供货

2024-03-29
关注

3 月 28 据日本经济新闻今日报道,英伟达的尖端图像处理半导体(GPU)H200 供应已经开始。H2000 为面向 AI 半导体在该领域的性能超过了目前的主要领域 H100。

根据英伟达公布的性能评估结果, Meta 公司的大语言模型 Llama 2 以处理速度为例,H200 相比于 H100,生成式 AI 导出答案的处理速度最大化 45%。

市场调研机构 Omdia 曾表示,2022 年英伟达在 AI 约占半导体市场 8 同时,成的份额 AMD 竞争对手也在开发对抗英伟达的产品,竞争越来越激烈。

英伟达当地时间 3 月 18 新一代将于今年在开发者大会上宣布推出 AI B200半导体“B200” 和 CPU新产品(中央运算处理装置)组合用于最新产品 LLM 上。“最强 AI GB200加速卡 包含了两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU ,推理大型语言模型的性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。

GB200 采用新一代 AI 图形处理器架构 Blackwell,黄仁勋在 GTC 会上说:“大会上说:“说:“大会上说:“Hopper 虽然已经很好了,但我们需要更强大 GPU”。

据IT之家之前报道,英伟达 H200 于去年 11 以英伟达为基础的“月发布”Hopper”架构的 HGX H200 GPU,是 H100 GPU 继任者也是该公司的第一个使用 HBM3e 内存芯片,内存速度更快,容量更大,更适合大型语言模型。较前任霸主 H100,H200 直接提高了性能 60% 到 90%。英伟达说:“借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速度提供 141GB 的内存,与 A100 相比之下,容量几乎是其中的两倍,带宽增加了 2.4 倍。”


  • 半导体
  • 英伟达
您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

提取码
复制提取码
点击跳转至百度网盘