AMD芯片现在可以完成英伟达科技所做的人工智能工作

时间:2024-09-20 编辑: 浏览:(488)

最近,这似乎是英伟达的世界,每个人——当然还有科技和爆炸性人工智能行业的任何人——都生活在其中。在适时的市场进入、领先的硬件研究和为其GPU量身定制的强大软件生态系统之间,该公司主导着人工智能开发和股市。今天晚些时候,该公司的最新盈利报告显示,季度销售额增加了两倍,股价进一步上涨。

尽管如此,长期竞争对手芯片制造商AMD仍在努力在人工智能领域站稳脚跟,并告诉新兴领域关键技术背后的建设者,他们也可以在AMD硬件上开展工作。

“我只是想提醒大家,如果你使用PyTorch、TensorFlow或JAX,你可以使用你的笔记本或脚本,它们只会在AMD上运行,”AMD高级总监伊恩·费雷拉在周三早些时候的微软Build 2024会议上宣布。“推理引擎也是如此。BLLM和Onyx也可以开箱即用。”

该公司利用在台上的时间展示了AMD GPU如何在本地运行强大的人工智能模型,如Stable Diffusion和Microsoft Phi,在不依赖英伟达技术或硬件的情况下高效执行计算密集型训练任务。

会议主持人微软宣布在其Azure云计算平台上提供基于AMD的虚拟机,使用该公司的加速MI300X GPU,以此支持这一消息。这些芯片于去年6月宣布,在新的一年开始发货,最近在微软Azure的OpenAI服务和拥抱脸的基础设施中实现。

AMD支持的ML库。图片:微软。Youtube

英伟达专有的CUDA技术,包括专门为英伟达GPU设计的完整编程模型和API,已成为人工智能开发的行业标准。因此,AMD的主要信息是,其解决方案可以直接融入相同的工作流程。

与现有人工智能系统的无缝兼容性可能会改变游戏规则,因为开发者现在可以在不大修代码库的情况下利用AMD成本较低的硬件。

费雷拉保证道:“当然,我们知道,你需要的不仅仅是框架,你需要一堆上游的东西,你需要一些实验性的东西,分布式训练——所有这些都是在AMD上实现和工作的。”。

然后,他展示了AMD如何处理不同的任务,从运行ResNet 50和Phi-3等小型机型到微调和训练GPT-2,所有这些都使用了与英伟达卡相同的代码。

图片:微软。Youtube

AMD吹嘘的一个关键优势是能够有效地处理大型语言模型。

他解释道:“你可以在一个GPU上加载多达700亿个参数,其中8个在这个例子中。”。“你可以加载八个不同的美洲驼70B,或者采用像llama-3 400Bn这样的大模型,并将其部署在一个实例上。”

挑战英伟达的统治地位绝非易事,因为这家总部位于加利福尼亚州圣克拉拉的公司一直在大力保护自己的地盘。英伟达已经对试图为AMD等第三方GPU提供CUDA兼容层的项目采取了法律行动,称其违反了CUDA的服务条款。这限制了开源解决方案的开发,并使开发人员更难接受替代方案。

AMD绕过英伟达封锁的策略是利用其开源ROCm框架,该框架与CUDA直接竞争。该公司在这方面取得了重大进展,与世界上最大的开源人工智能模型库Hugging Face合作,为在AMD硬件上运行代码提供支持。

这一合作关系已经取得了可喜的成果,AMD提供了本地支持和额外的加速工具,如在ROCm驱动的GPU上执行的ONNX模型、Optimum Benchmark、使用Transformers的ROCm驱动GPU的DeepSpeed、GPTQ、TGI等。

费雷拉还指出,这种集成是原生的,消除了对第三方解决方案或中间商的需求,这可能会降低流程的效率。

他说:“你可以使用现有的笔记本电脑和脚本,并在AMD上运行它们,这很重要,因为许多其他加速器都需要代码转换和各种预编译脚本。”。“我们的东西开箱即用,而且速度非常非常快。”

虽然AMD的举动无疑是大胆的,但废黜英伟达将是一个相当大的挑战。英伟达并没有固步自封,不断创新,使开发商难以从事实上的CUDA标准迁移到新的基础设施。

然而,凭借其开源方法、战略合作伙伴关系和对本地兼容性的关注,AMD将自己定位为在人工智能硬件市场寻求更多选择的开发者的可行替代品。

由Ryan Ozawa编辑。

最新 更多 >
  • 1 关于latex论文模板的信息

    本文带来了【latex论文模板】内容供参考阅读,并对相关内容进行了分析,下面就跟随币王网小编一起了解latex论文模板。 latex撰写毕业论文参考文献格式怎么修改 为了调整出合适的北京大学博士生毕业论文参考文献格式,开始了手动调整,自定义参考文献格式,捡芝麻的俺呀。 注意:mybibtex.bib为参考文献BibTeX的一个文件,应放在tex主文件的同目录下。 在 .bib 文件的标题后面加一个