AMD正在加速其ROCm软件栈的开发,力求从英伟达的CUDA平台手中夺取市场份额。该公司正转向以软件为中心的开发模式,旨在提升其AI加速工具的可靠性与部署便捷性。
AMD人工智能软件副总裁Anush Elangovan将这一过程形容为一场漫长且需要不断迭代的攀登。“这就像爬山一样,必须一步一个脚印,”Elangovan在接受《EE Times》采访时表示,“找准方向,坚定不移,剩下的自然水到渠成。”
Elangovan在两年半前加入AMD,此前他创办的初创公司Nod.ai被AMD收购。他的团队带来了在AI编译器和自动化领域的深厚专业知识,这些技术现已融入ROCm的核心基础设施中。
迈向“类Chrome”的发布节奏
AMD正将ROCm的发布周期调整为六周一次,以提高企业用户的可靠性和一致性。Elangovan将这一目标比作谷歌浏览器的更新体验,即底层版本更迭对终端用户而言是无感的。
“当时的ROCm更像是一堆零散组件的集合,”Elangovan在谈及近期加大投入前的软件状态时说道,“我们现在正像一家纯粹的软件公司那样发布产品。未来我们将达到一个阶段,让软件实现‘即插即用’,让底层技术变得隐形。”
这一战略的核心是名为“OneROCm”的内部计划,旨在统一AMD旗下CPU、GPU和FPGA等各类硬件的软件栈。通过实现软件栈的标准化,AMD希望提升其硬件的通用性和开发友好度。
这种对通用性的追求也得益于OpenAI的开源Triton框架。据Elangovan介绍,Triton已成为GPU编程领域的“大平衡器”,它允许开发者编写能够在AMD和英伟达硬件上同时运行的内核,而无需进行繁琐的手动转换。
“过去,我们总是忙于将CUDA内核转换为HIP内核,”Elangovan说,“但现在越来越多的人转向了Triton。它让你只需编写一个Triton内核,就能在AMD或英伟达的硬件上运行。我们对此投入了巨大精力。”
随着AMD不断扩大这些投入,其团队也开始探索利用AI辅助工程来加速未来的开发周期。该公司押注这种对软件敏捷性的专注,最终将削弱英伟达CUDA生态系统目前所构筑的竞争壁垒。