大暴走!英伟达官宣全球最强AI芯片,性能提升超30倍

2024-03-19
关注
摘要 北京时间3月19日凌晨4:00,在美国加州圣何塞会议中心举办的GTC 2024大会正在进行中。在舞台中央,“皮衣刀客”黄仁勋又推出了继H100、A100之后的又一核弹级芯片产品。

  英伟达在过去的2023年取得了巨大的成就。因此,2024年GTC大会备受市场关注。

  在GTC会议之前,许多外国媒体开始八卦:黄仁勋将在GTC会议上发布一款新的GPU产品。果然,黄仁勋不负众望,B200和GB200系列芯片采用Blackwell结构“开始”。英伟达表示,使用Blackwell结构的系列芯片将是迄今为止最强大的人工智能芯片产品。

  黄仁勋表示,B200芯片有2800亿个晶体管(相比之下,H100/H200上有800亿个晶体管),采用台积电4NP工艺,可支持多达10万亿个参数的AI模型。

  有趣的是,B200芯片不是传统意义上的单一GPU,而是由两个紧密耦合的芯片组成,通过10TB/s NV-HBI(NVIDIA高宽带接口)连接,以确保它们作为一个完全一致的芯片正常运行。

  「数智研究社」据了解,B200系列Blackwell结构在人工智能安全方面又迈出了一步。此外,Blackwelll将集成到英伟达的GB200超级芯片中,它可以将两个B200GPU连接到另一个GPU中。

  但到目前为止,英伟达还没有透露价格。新产品的上市时间没有具体的上市时间。但如AWS、谷歌、微软等知名公司都发布了Blackwellll GPU的信心和欲望。

  在演讲中,黄仁勋承认,“生成人工智能是我们这个时代的决定性技术。Blackwell架构的GPU是推动新工业革命的引擎。英伟达与世界上最具活力的公司合作将实现人工智能对每个行业的承诺。”

  除了发布新架构的GPU产品外,英伟达还发布了GB200 NVL72液冷机架系统包括36个GB200 Grace Blackwell超级芯片,1.4 exaflops的推理能力包含5000根单独的电缆,总长度接近两英里。

  在新闻发布会上,英伟达重点介绍了这款产品,H100与推理相同 Tensor 与GB2000相比,Core图形处理单元 NVL72的性能提高了30倍,成本和能耗降低了25倍。

  以此为例,训练一个1.8万亿参数模型需要8000Hopper GPU和15兆瓦的功率。现在,只需要2000个Blackwelll 训练可以通过GPU和4兆瓦的功率来完成。

  此外,英伟达表示,还将推出名为HGX的服务器主板 B200。这个主板支持在单个服务器节点中使用8个B200 X86架构的GPU和CPU。

  除了硬件的“暴力”升级外,英伟达还在未来的软件发展中展示了自己的人工智能战略。黄仁勋现场推出了人工智能软件订阅服务包,推出了NVIDIA推理微服务等。

  黄仁勋在现场表示,英伟达正在认真考虑从本质上重新设计整个底层软件堆栈,希望AI能帮助英伟达。但从资本市场来看,英伟达当天高开5%,但收盘时涨幅不到1%。盘后股价下跌超过1%。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

提取码
复制提取码
点击跳转至百度网盘