导读
芯片荒的背后,是智能时代的“石油危机”,而OpenAI选择不再等待。
“我们不是在等芯片,而是在打造全链条系统,从晶体管到ChatGPT输出Token。这是我所知的,人类历史上规模最大的联合工业项目。”在OpenAI最新官方播客中,奥特曼直言不讳地揭示了与博通合作的雄心。

10月13日,OpenAI正式宣布将与芯片巨头博通深度合作,启动自研定制芯片的战略性系统工程。根据计划,2026至2029年间,双方将部署覆盖10吉瓦规模的推理基础设施,这一耗电量相当于800多万美国家庭的用电需求。
文字编辑|宋雨涵
1
“芯”火燎原:
揭秘OpenAI的“普罗米修斯计划”
18个月,足以让一个初创公司从零到一,也足以让一个颠覆性技术从理论走向现实。OpenAI的芯片项目并非心血来潮,而是蓄谋已久。
这个时间跨度意味着,该项目很可能已经完成了从架构设计、逻辑验证到物理实现的关键阶段,甚至可能已经流片(Tape-out)或正在进行中。明年部署的计划,更是彰显了其对项目成熟度的极高自信。
然而,比自研芯片本身更具革命性的是其设计方法——AI参与设计。这并非简单的自动化脚本或传统EDA(电子设计自动化)工具的应用,而是指AI在芯片设计的核心环节,如微架构探索、逻辑综合乃至物理布局布线(Place & Route)中扮演了关键角色。我们可以合理推测,OpenAI正在利用其强大的模型能力,探索人类工程师难以触及的、更优化的设计空间。
想象一下,一个AI系统,它深刻理解GPT系列模型的运算特性——哪些操作最频繁、数据流如何传递最高效、内存瓶颈在哪里——然后基于这些理解,反向设计出一款“天生为GPT而生”的芯片架构。
这种“软硬协同”的深度耦合,能够实现传统通用芯片(如GPU)无法比拟的能效比和性能。这不仅是芯片设计方法的革新,更是AI能力的一次“自我赋能”。
2
OpenAI为何必须自研芯片?:
GPU不再是不够用,而是根本性短缺
OpenAI的发展节奏有目共睹:ChatGPT、DallE、Sora……几乎每隔几个月就有新产品面世。但真正让这家公司感到压力的,不是竞争对手,而是支撑这些智能的算力已经严重不够用了。
Sam Altman在播客中透露了一组关键数据:“我们最初的集群只有2兆瓦,今年是2吉瓦。但我们希望达到30吉瓦,甚至更多。”这相当于过去15倍以上的增长,背后反映的是一个残酷现实:AI越聪明,大家用得越多,需求膨胀得比基础设施扩容快得多。
OpenAI最初以为“只要优化10倍,大家就够用了”,结果发现“优化10倍后,需求涨了20倍”。这种供需之间的巨大落差,使得GPU已不再是即买即用的普通资源,其长期短缺的特性,使其成为一种需要持续供应的新型电力。
供应链的“咽喉要道”——英伟达
近年来,全球对高端AI芯片的需求呈爆炸式增长,英伟达的顶级GPU“一卡难求”已是常态。这种卖方市场让OpenAI等AI公司在采购中毫无议价能力,且时刻面临断供风险。地缘政治的紧张局势更是加剧了这种不确定性。将核心算力完全寄托于单一供应商,对于一个以AGI为终极目标的公司来说,是战略上的巨大隐患。自研芯片,就是将这条“咽喉要道”掌握在自己手中,实现真正的“算力自由”。
3
为什么是博通:
不只为省钱,更为掌控产线
在已与AMD及英伟达建立合作之后,OpenAI此次与Broadcom的联手,标志了双方第一次成为关键合作伙伴。这引出一个关键问题:为什么是博通?
OpenAI联合创始人Greg Brockman在播客里解释:“我们不是在市场上买一块现成的芯片,而是从零开始,为自己的模型量身定做一块。”
博通并非传统意义上的芯片代工厂,而是能够从晶体管层面参与定制的架构协作方,是能从网络层+软件层共同打通的系统共建者。
这种合作模式最引人注目的地方在于,OpenAI正在使用自己的AI模型参与芯片设计。Greg分享了一个细节:“模型给出的优化建议,很多本来是我们芯片专家‘待办清单里一个月以后要做的事’。”
这意味着,AI不只是使用芯片的机器,它已经开始参与设计芯片了。
4
10GW的野望:
一个“算力核电站”意味着什么?
10GW的功率,相当于5-6座大型核电站的输出功率,足以供应一个中等规模国家的用电需求。目前,一个超大型数据中心的功耗通常在100-200兆瓦(MW)级别。10GW意味着需要建设一个由50到100个此类超大规模数据中心组成的庞大集群。这已经远远超出了传统数据中心的概念,更像是一个“算力城市”或“算力联邦”。
奥特曼此前就曾提及为未来的AI发展筹集7万亿美元的宏伟计划,而10GW的算力目标,正是这个计划在物理世界的具体投射。它清晰地揭示了OpenAI对未来AGI所需算力量级的判断——那将是一个与今天完全不在一个数量级的、近乎无限的算力需求。
这10GW的背后,是数千万乃至上亿颗AI芯片的协同工作,是配套的、足以覆盖一座小城的散热系统,是需要重新设计的电网基础设施,以及高达每年数百亿美元的电费账单。这不仅是对芯片设计能力的考验,更是对资本运作、能源获取、全球供应链管理、基础设施建设能力的终极挑战。
这个目标也向我们提出了一个严肃的问题:AGI的实现,是否必然伴随着如此巨大的物理世界代价? 这将引发关于AI发展与能源消耗、环境保护之间关系的深刻讨论。未来,获取和调度廉价、清洁的能源,将和算法、芯片一样,成为AI竞赛的核心竞争力之一。
写在最后:
与博通的合作只是OpenAI算力联盟版图的一部分。OpenAI近期已与多家芯片巨头达成重磅合作,构建了一个庞大的算力网络。
上周,OpenAI宣布与AMD达成一项战略合作,OpenAI将部署6吉瓦AMD GPU算力。更早之前,OpenAI和英伟达宣布签署意向书,双方计划为OpenAI的下一代AI基础设施部署至少10吉瓦的英伟达系统。
结合与博通的合作,这意味着OpenAI已锁定了26吉瓦的数据中心,价值更是高达万亿美元。
这种“多方下注”的策略,既确保了算力供应链的稳定性,又使OpenAI能在技术路线上保持灵活性。