斥资380亿美元,OpenAI要运行在亚马逊云科技上了

11月4日,亚马逊云科技与OpenAI今日宣布达成一项为期七年的战略合作协议,总额高达380亿美元。

根据协议,OpenAI将立即在亚马逊云科技上运行并扩展其核心AI工作负载,利用由数十万颗先进NVIDIA GPU组成的算力资源,并具备扩展至数千万个CPU的能力,以快速支持大规模Agentic工作负载的运行与扩张。

这项合作协议不同于传统的按需付费云计算模式,而是一份明确的长期算力采购协议。换句话说,这不是一个“按小时计费”的云服务,而是一份锁定规模与投入的订单型战略协议。这也反映出AI时代的算力合作,正在从租赁式向定制化转变。

亚马逊云科技在安全、可靠和可扩展的大规模AI基础设施运营方面拥有独特经验,其单一集群可容纳超过50万颗芯片。根据协议,OpenAI将立即启用亚马逊云科技的算力资源,预计所有部署将在2026年底前完成,并计划在2027年及之后进一步扩大规模能力。

值得注意的是,OpenAI此次所用的虽然是亚马逊云科技最新的 Amazon EC2 UltraServer 集群,但核心计算芯片依然是 NVIDIA GPU(包括GB200与GB300系列),而非一直重点推广的自研芯片,如Trainium或Inferentia。

这意味着OpenAI目前仍依赖NVIDIA生态来支撑其AI训练和推理任务。不过,这也为后续合作留下了空间——未来不排除OpenAI在部分任务上迁移至亚马逊云科技自研芯片的可能性。

通过UltraServer集群中高密度互联的NVIDIA GPU,OpenAI能够在极低延迟的网络环境下运行模型训练和推理任务,从ChatGPT推理到下一代模型的训练都将受益。这将显著提升其计算效率与模型迭代速度。

与此同时,今年早些时候,OpenAI的开放权重基础模型已在 Amazon Bedrock 上线,成为该平台上最受欢迎的模型提供方之一。目前已有数千家企业,包括Bystreet、Comscore、Peloton、Thomson Reuters、Triomics和Verana Health等,利用OpenAI的模型开展Agentic工作流、代码生成、科学分析与数学推理等多种应用。

从各方角度看,这项合作都堪称“多赢”:

对亚马逊云科技而言,这是一次巨额的算力合作订单,将带来可观的云收入与AI生态加持;

对OpenAI而言,这标志着其算力供应渠道不再单一,进一步减少了对微软的依赖;

对终端用户而言,更强的基础设施意味着更快、更稳定的AI服务体验。

这项合作无疑为AI基础设施市场注入了新的活力,也预示着云计算巨头与AI公司的关系正迈入新的阶段——从单纯的云服务关系,走向深度绑定与共同创新的算力联盟。