12 月 7 日消息,当地时间周三 Meta、OpenAI 和微软在 AMD 投资者活动上表示,他们都将使用 AMD 最新开发的人工智能芯片 Instinct MI300X。这表明,虽然英伟达的 GPU 芯片对于开发和部署 ChatGPT 等人工智能程序至关重要,但很多科技公司都在寻找替代品。
如果 AMD 最新的高端芯片 Instinct MI300X 能在明年初开始出货,并满足人工智能公司和相关云服务提供商的需求,那么可能会降低开发人工智能模型的成本,并对英伟达不断飙升的人工智能芯片业务形成竞争压力。
周三 AMD 首席执行官苏姿丰表示:“所有的关注点都集中在云计算所用的大型处理器和大型 GPU 上。”
AMD 表示,MI300X 基于一种能显著提升性能的新架构。这款芯片的最大特点是拥有 192GB 的高性能 HBM3 内存,传输数据速度更快,可以适配规模更大的人工智能模型。
苏姿丰直接将 MI300X 及其构建的系统与英伟达推出的主流人工智能 GPU 芯片 H100 进行了一番比较。
“这种性能可以直接转化为更好的用户体验,”苏姿丰说。“当你向模型提出问题时,总希望它能更快回复,尤其是在回应日益复杂的情况下。”
AMD 面临的主要问题是,一直以英伟达为基础的公司是否会在另一家 GPU 供应商身上再投入时间和金钱。“接受 AMD 还需要下力气,”苏姿丰说。
AMD 周三告诉投资者和合作伙伴,公司已经对 ROCm 软件套件进行了改进。为与作为行业标杆的英伟达 CUDA 软件竞争,解决了一个关键缺陷。ROCm 软件套件原来的这个缺陷一直是人工智能开发者目前更喜欢英伟达的主要原因之一。
芯片价格也很重要。周三 AMD 并没有透露 MI300X 的定价。目前英伟达 GPU 芯片每块售价约为 4 万美元,苏姿丰表示,AMD 的芯片价格必须比英伟达更低,运营成本也更低,才能说服客户购买。
周三 AMD 还表示,已经与一些最需要 GPU 芯片的公司签订了使用协议。根据市场研究公司 Omidia 最近的一份报告,Meta 和微软是 2023 年度英伟达 H100 GPU 芯片的两大买家。
Meta 表示,将使用 MI300X 芯片来处理人工智能推理工作负载,比如人工智能贴纸、图像编辑以及语音助手的运行。
微软首席技术官凯文・斯科特 (Kevin Scott) 表示,公司将通过 Azure 网络服务提供对 MI300X 芯片的访问。
甲骨文的云计算也将使用这种芯片。
OpenAI 表示将在一款名为 Triton 的软件产品中支持 AMD 的 GPU 芯片。Triton 不是像 GPT 那样的大型语言模型,但也利用芯片功能开展人工智能研究。
AMD 目前还没有对这款芯片的大规模销售做出预测,仅预计 2024 年数据中心 GPU 的总营收约为 20 亿美元。相比之下,单单最近一个季度英伟达的数据中心营收就超过 140 亿美元,不过这一数据中还包括 GPU 以外的其他芯片业务。
然而 AMD 表示,未来四年人工智能 GPU 芯片市场的规模可能会攀升至 4000 亿美元,是公司此前预期的 2 倍。这表明业内对高端人工智能芯片的期望很高,也正是 AMD 现在将投资者的注意力集中在产品线上的原因。
苏姿丰还表示,AMD 并不认为需要击败英伟达才能在市场上取得更好业绩。
在谈到人工智能芯片市场时,苏姿丰说:“我认为很明显,英伟达现在肯定占据绝大多数份额。”“我们认为,到 2027 年这个数字可能会超过 4000 亿美元。我们完全可以从中分得一杯羹。”