英伟达下“封杀令”:不准转译CUDA
本文来自微信微信官方账号:芯东西 (ID:Aichip001),作者:Zer0,原标题:英伟达“封杀令”:CUDA不允许转译!国内GPU企业回应,题图来自:视觉中国与CUDA兼容,走不通?据外媒报道,3月6日,英伟达禁止使用转译层在其他GPU上运行CUDA软件。自2021年以来,英伟达在其在线许可条款中明确禁止使用转译层在其他硬件平台上运行基于CUDA的软件。软件工程师@Longhorn发现,这项“禁令”已被添加到CUDA安装中 最终用户许可协议包含在11.6和更新版本中(EULA)中。英伟达CUDA 11.6和更高版本的EULA有一个限制:“你不能逆向工程、反编译或反编辑使用SDK生成的任何结果,并在非英伟达平台上进行翻译。英伟达CUDA EULA相关限制条款截图一石激起千层浪。GPU行业长期以来一直患有“CUDA依赖”。英伟达多年来不断巩固的CUDA生态墙就像铜墙和铁墙,这是其他GPU新秀难以承受的关键障碍。为了满足市场需求,一些非英伟达GPU平台选择与CUDA兼容,站在英伟达生态的肩膀上拥抱GPU开发者。这一消息立即引起讨论:CUDA兼容禁令意味着什么?会对国内GPU企业产生不利影响吗?对此,北京GPU独角兽摩尔线程发表声明澄清:“摩尔线程MUSA/MUSIFY不涉及英伟达EULA的相关规定,开发者可以放心使用。"据tom""s Hardware报道,兼容CUDA有两种常见做法:重新编译代码(可供相应程序的开发人员使用)、使用转译层。重新编译现有CUDA程序的第一种方法是合规的。AMD和英特尔都有工具将CUDA程序转移到他们的ROCM和OpenAPI平台上。国内一些GPU企业也采用了类似的兼容思路。第二种主要禁止EULA条款,使用ZLUDA开源库等转译层。外国媒体称,这是在非英伟达硬件上运行CUDA程序的最简单方法。此前,英特尔和AMD都支持ZLUDA项目,但后续都停止了。ZLUDA利用ROCM技术栈实现CUDA应用二进制兼容性,支持CUDA应用在AMD硬件平台上运行,无需修改代码。开发人员之所以长期依赖英伟达GPU,是因为CUDA足够好用,最好与英伟达GPU硬件的软硬合作。没有必要改变一个新的平台,其他平台可能存在潜在的漏洞风险。然而,如果CUDA能够在其他硬件上运行,虽然会有一定的性能损失,但它有利于缩小与英伟达的生态差距。这或多或少会威胁到英伟达在加速计算领域的主导地位,英伟达对此的限制也就不足为奇了。随着生成式人工智能的日益普及,CUDA被视为英伟达GPU护城河,其兼容性已成为热门话题。在去年在纽约举行的一次活动中,英特尔首席执行官基辛格赞扬了CUDA技术,并承认“整个行业都在积极消除对CUDA的依赖”。当时他列出了MLIR、谷歌、OpenAI等例子暗示,他们正在转向“Pythonic编程层”,使人工智能训练更加开放。他认为,“CUDA护城河又浅又小”的主导地位不会永远持续下去,因为该行业有动力为大型培训和数据科学带来更广泛的技术。AMD 去年,首席执行官苏子丰在接受外媒采访时谈到了“他不相信护城河”。在她看来,在过去,开发人员倾向于使用针对特定硬件的软件,但展望未来,每个人都在寻求构建与硬件无关的软件能力。人们希望确保他们能够从一个基础设施转移到另一个基础设施,所以他们正在构建这些更高级别的软件。上个月,硅谷芯片架构大神Jim “CUDA是沼泽,不是护城河,”Keller还在社交平台上抱怨道。他吐槽写CUDA效率低下,Triton、Tensor RT、Neon、Mojo的存在是合理的。可以说,人工智能芯片和GPU领域长期以来一直在遭受CUDA的痛苦,业界对这种封闭的生态有相当多的评论。兼容CUDA只是权宜之计。长期雄心勃勃的芯片制造商或初创公司正在建立独立的软件生态,支持更开放的生态。OpenAI 以Triton为代表的开源编程语言正成为对抗CUDA封闭阵营的关键力量。通过大大简化GPU,加快编程过程,显著减少编译新硬件所需的工作量,削弱开发者对CUDA的依赖。与此同时,当GPU短缺越来越严重时,迫切需要更多计算能力的人工智能企业可能会越来越多地考虑AMD、英特尔等竞争对手的替代品。当他们卷起袖子推出性能强大、经济高效的GPU产品时,英伟达的主导地位将受到挑战。从商业决策的角度来看,专注于解决复杂的视觉计算问题和持续创新的英伟达也有充分的理由捍卫其长期积累的知识产权和商业成果,使客户与其生态系统具有更强的粘性。本文来自微信微信官方账号:芯东西 (ID:Aichip001)作者:Zer0
声明:本文内容及配图源自互联网收集,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容真实性,不承担此类作品侵权行为的直接责任及连带责任。如涉及作品内容、版权等问题,请联系本网处理,侵权内容将在一周内下架整改。