19日上午,GPU大厂英伟达在加州圣荷西举行的GTC2024发布了自称最强AI芯片GB200,今年晚些时候发货。GB200采用了新的Blackwell架构GPU。英伟达创始人兼执行长黄仁勋表示,Hopper架构GPU两年前非常优秀,但现在需要更强大的GPU。
英伟达每两年更新一次GPU架构,大大提高了AI芯片的性能。2022年发布Hopper架构H100AI芯片后,英伟达引领全球AI市场潮流。如今,Blackwell架构的AI芯片性能更强,更擅长处理AI任务。Blackwell架构是数学家David Harold Blackwell命名。
黄仁勋表示,Blackwell架构GPU的AI运算性能在FP8和NEW FP6可达20petaflops,是前一代Hopper架构运算性能8petaflops的2.5倍。NEWFP4可达40petaflops,是前代Hopper架构GPU运算性能的8petaflops5倍。工作操作执行力的实际性能可能会更高,这取决于各种Blackwell架构GPU设备的记忆容量和频宽配置。黄仁勋强调,具有额外的处理能力,使人工智能企业培训更大、更复杂的模型。
Blackwell架构GPU体积巨大,采用台积电4纳米(4NP)制造,集成了两个独立制造的裸晶体(Die),通过NVLink5.0介面像拉链一样,共有2080亿个电晶体绑定芯片。英伟达到10TB//sec NVLink5.0连接两个裸晶,官方称介面为NV-HBI。Blackwell NVLink5complex.0介面为1.8TB频宽,是前代Hopper架构GPUU NVLink4.0介面速度的两倍。
最新GB200英伟达 包含两个Blackwelll的AI芯片 GPU和Arm架构Grace CPU,推理模型的性能是H100的30倍,成本和能耗都降到了25分之一。
英伟达还为GB200等需求量大的企业提供成品服务器和完整的服务器运输 NVL72服务器提供36个CPU和72个Blackwell架构GPU,完善集成水冷散热方案,可实现720petaflops总人工智能训练性能或1、440petaflops推理性能。共有5000条独立电缆,电缆长度近2英里。
亚马逊AWS计划购买由2万块GB200芯片组成的服务器集群,部署27兆参数模型。除亚马逊AWS外,DELL、Alphabet、Meta、微软、OpenAI、Oracle和TESLA已成为Blackwell系列的用户之一。