OpenAI拥抱AMD,与投资人英伟达的“死对头”达成合作,奥特曼这是要干啥?

导读

2025年10月6日,一个重磅消息瞬间在全球科技圈和投资界炸开。AMD的股价在盘前交易中一路飙升超过43%,但这并非因为财报,而是源于一场可能重塑人工智能未来格局的战略合作:AMD与OpenAI正式牵手,达成了一项为期四年的合作协议。

这次合作远不止是简单的芯片买卖,更像是一场通过股权紧密捆绑的联盟。根据协议,AMD将向OpenAI提供总量高达6吉瓦(GW)的GPU算力;同时,OpenAI还获得了可以购入AMD大约10%股份的权利。这意味着,在利润丰厚的人工智能加速器市场,AMD向目前占据主导地位的英伟达(Nvidia)发起了迄今为止最强劲的挑战。

文字编辑|宋雨涵

1

事件引爆点:

一份撼动市场的“世纪豪赌”

根据OpenAI官网发布的信息,这次合作的规模和深度都堪称史无前例。协议的核心是AMD将为OpenAI构建一个由多代AMD Instinct GPU驱动的庞大算力基础设施。其关键细节包括:

  • 庞大的算力规模:
    合作总目标是部署高达6吉瓦的GPU算力。这是一个什么概念?1吉瓦的数据中心算力,其耗电量足以匹敌一座中型城市。6吉瓦,意味着一个前所未有的AI算力集群,其规模和能耗都将是惊人的。
  • 明确的执行路线图:
    首批1吉瓦的部署计划将于2026年下半年启动,采用的是AMD即将推出的下一代旗舰产品——Instinct MI450 GPU。这不仅是对AMD当前产品的认可,更是对其未来技术路线图的巨大信任票。
  • 颠覆性的股权捆绑:
    作为合作的一部分,AMD向OpenAI发行了可购买多达1.6亿股AMD普通股的认股权证。这些权证的解锁与部署进度(从1吉瓦到6吉瓦)、AMD股价表现以及OpenAI自身的技术和商业里程碑紧密挂钩。一旦全部行权,OpenAI将成为AMD的大股东,持股比例高达10%
  • 这种“我买你的产品,你给我你的股份”的模式,彻底超越了传统的甲乙方关系。它将OpenAI从一个单纯的客户,转变为AMD未来发展的核心利益相关者。OpenAI的成功将直接推高AMD的股价,使其手中的认股权证价值倍增;而AMD的强大,则为OpenAI提供了对抗英伟达垄断的坚实后盾。这是一种精妙的“利益共同体”设计,确保了双方在未来数年内将同舟共济,共同应对市场的风云变幻。

AMD首席执行官苏姿丰(Lisa Su)称之为“真正的双赢”,这绝非客套话。AMD预计,该合作将从2026年起带来可观收益,并在2027年加速增长,甚至有望推动其AI业务总收入突破1000亿美元大关。市场的狂热反应,正是对这一宏大叙事的直接肯定。

2

棋局的另一端:

英伟达的“千亿”帝国与OpenAI的“两手准备”

就在半个多月前的9月23日,英伟达高调宣布与OpenAI达成“具有里程碑意义的人工智能基础设施合作伙伴关系”,计划投资最高1000亿美元,通过数百万个英伟达GPU构建“数千兆瓦”的数据中心。当时,OpenAI的CEO山姆·奥特曼(Sam Altman)曾盛赞道:“除了英伟达之外,没有任何合作伙伴能够以这种规模、以这种速度做到这一点。”

“对于OpenAI而言,与AMD的合作可能帮助其打造对抗英伟达垄断的替代方案。目前,OpenAI的预算之中有很大一部分花在英伟达技术上。”

在AI军备竞赛中,算力即权力。将全部身家押注在单一供应商身上,无异于将自己的咽喉交到他人手中。英伟达的GPU虽然性能卓越、生态成熟,但也带来了三大问题:成本高昂、供应紧张、议价权缺失。OpenAI作为全球最大的AI模型开发者,其运营成本的巨大部分都用于向英伟达支付算力费用。这种依赖性是其未来发展的巨大隐患。

因此,扶持一个强大的“第二选择”——AMD,成为OpenAI的必然选择。通过与AMD的合作,OpenAI不仅能获得更具竞争力的价格,还能确保在英伟达产能受限时,依然有充足的算力可用。同时,手握两家顶级供应商的订单,OpenAI在未来的谈判桌上将拥有无可比拟的议价能力。再加上与博通(Broadcom)关于定制芯片的谈判,OpenAI正在编织一张多元化、高韧性的算力供应网络,以确保其在通往通用人工智能(AGI)的道路上,永远不会因“缺芯”而受制于人。

英伟达的“千亿”帝国

在面对AI产业爆发式增长,英伟达在产能和市场上也展开了前所未有的大规模布局。一方面,公司不断扩大先进芯片产能,与台积电(TSMC)深度绑定获取优先产能支持,以缓解全球AI芯片供不应求的局面。

另一方面,英伟达积极推动“AI基础设施即服务”的战略,将自身定位从芯片供应商延伸为AI解决方案提供商。例如,英伟达推出了DGX Cloud云端AI超级计算服务,让企业无需自建数据中心即可租用英伟达的算力资源。这不仅创造了新的经常性收入来源,也进一步将客户锁定在英伟达生态中。

在企业和云服务领域,英伟达与微软、亚马逊、谷歌等巨头建立了紧密合作,将GPU深度集成到Azure、AWS、GCP等云平台中,使其技术触达全球各地的开发者和企业用户。

此外,英伟达还涉足自动驾驶、机器人、元宇宙等新兴领域,通过提供定制化的AI计算平台(如Drive Orin、Jetson等),将其GPU帝国版图拓展到汽车、机器人等终端设备。

在这一系列布局下,英伟达正朝着“千亿级”营收和生态版图迈进:据统计,英伟达营收从2022财年的269亿美元飙升至2025财年预计的960亿美元,其中大部分增长来自AI芯片业务。随着AI应用的全面开花,英伟达的“算力帝国”版图还在持续扩张。

OpenAI的“两手准备”

OpenAI也在积极拓展其他算力来源,以避免“把所有鸡蛋放在一个篮子里”。

OpenAI与英伟达在2025年达成了一笔史无前例的巨额合作——双方宣布建立战略伙伴关系,由英伟达协助OpenAI建设总功率达10吉瓦的AI超级计算数据中心,涉及数百万颗英伟达GPU的部署。

2025年2月,OpenAI更与全球最大的芯片代工厂台积电(TSMC)签署合作备忘录,共同开发定制化的AI芯片和封装技术。这一合作被解读为OpenAI确保未来芯片产能、绕开美国出口管制的重要举措:通过直接与台积电绑定,OpenAI有望获得先进制程芯片的稳定供应,并可能将部分芯片产能优先用于自身需求。

此外,OpenAI还加入了美国政府支持的“Stargate”超级计算计划,与甲骨文(Oracle)、软银、三星等公司合作在美国本土建设大型AI算力中心。该项目预计总投资高达5000亿美元,旨在构建覆盖全美的AI算力网络,为OpenAI等公司提供充足的算力资源。

通过与多家芯片厂商、云服务商和政府机构合作,OpenAI正打造一个多元的算力供应体系:既包括英伟达的通用GPU,也包括AMD的替代方案,以及自研的专用芯片和第三方云资源。这种“两手准备”策略使OpenAI在享受英伟达现有算力优势的同时,为未来可能的供应链风险和成本压力做好了备选方案

3

算力豹观察

没有竞争,就没有进步

一个高速发展的战略性行业,绝不能长期被单一公司垄断。AI的未来更不应被某家企业的技术路线或商业决策“绑定”。

AMD的强势入局,正在将AI芯片竞争从“独角戏”变为“双雄会”,双方将在性能、能效、价格、软件四个维度展开全面竞赛。最终受益的,将是整个AI生态——以及每一个使用AI技术的人。

软件,才是芯片的终极战场

AMD真正的挑战,不是硬件,而是CUDA构建的生态高墙。NVIDIA的CUDA已深耕18年,拥有500万开发者,几乎与所有主流AI框架无缝兼容。而AMD的ROCm平台尽管开源,却因体验不佳让开发者望而却步。

因此,AMD此次合作,必须视为其软件战略的“诺曼底登陆”。它需要的不仅是资金投入,更是生态思维的根本转变——学习开源社区的协作逻辑,打造一个真正开放、友好、低迁移成本的开发环境。

只有当开发者能轻松从CUDA切换到ROCm,AMD才算真正赢得了这场战争。

算力单位是“吉瓦”,AI的终局是能源

这次交易中,双方不再以“芯片数量”为单位,而是直接使用“吉瓦”来定义算力规模。这释放了一个强烈信号:AI的发展,本质上已成为一场能源竞赛。

6吉瓦只是开始,随着模型规模扩大与推理需求爆发,未来AI基础设施所需要的电力将是数千吉瓦级别。这对全球电网、能源结构、低碳目标而言,都是前所未有的挑战。

这也解释了为什么行业已在积极行动,探索绿色算力的发展路径。无论是通过电算协同平台优化调度,还是采用高效的高压直流供电技术,抑或是将AI数据中心与可再生能源紧密结合,目标都一致:让AI不仅更强,也要更绿。

结语:

展望未来,随着更多参与者加入算力竞赛,AI产业有望告别“一家独大”的局面,迎来更加开放多元的生态。这将降低算力成本,惠及整个社会对AI技术的应用。同时,我们也应看到,算力之外,算法创新、数据资源、人才团队等因素同样重要。在追逐算力的同时,业界仍需平衡好各方面投入,以实现AI的可持续发展。对于英伟达、OpenAI、AMD而言,如何在竞争中保持合作,在博弈中实现共赢,将是一门艺术。