解读黄仁勋最新采访:英伟达后悔没早点投资OpenAI,黄仁勋目标打造“AI工厂”

导读

9月25日,在播客BG2最新一期节目中,BG2主播携手英伟达CEO黄仁勋展开了一场深度对话。

在直播中,黄仁勋直言不讳地表示,投资OpenAI无疑是一个极具前瞻性与潜力的明智之举,他坚信OpenAI有望成为下一家市值高达数万亿美元的超级云计算服务商(Hyperscaler)。

此外,黄仁勋还就ASIC芯片与英伟达GPU之间的竞争关系发表了独到见解。他指出,英伟达的角色远非简单的硬件供应商,而是作为AI基础设施的全方位提供者,其核心竞争力已超越了单纯的硬件与软件层面。

文字编辑|宋雨涵

1

AI发展的新范式:

从“问答”到“思考”的三大驱动力

黄仁勋的论述,首先为我们厘清了驱动当前及未来AI发展的核心动力。他将其概括为“三大规模法则”,这不仅是对现有技术的总结,更是对未来方向的精准预判。

解构“三大规模法则”:AI能力的进化阶梯

传统的AI发展认知主要集中在模型规模和数据规模上,但黄仁勋提出了一个更完整、更具前瞻性的框架:

预训练(Pre-training): 这是我们熟知的第一阶段,即用海量的互联网数据构建基础大模型(Foundational Models)。这好比是为AI建造一座囊括人类所有知识的巨型图书馆,模型通过学习这些数据,掌握语言、逻辑和世界的基本规律。

后训练(Post-training): 这是第二阶段,包括监督微调(Supervised Fine-Tuning)和人类反馈强化学习(RLHF)等技术。如果说预训练是“博览群书”,后训练就是为这位“博学的图书管理员”设定工作规范、校正其价值观、使其回答更符合人类期望。这是确保AI安全、有用、可控的关键环节。

“思考”式推理(”Thinking” Inference): 这是黄仁勋此次论述的重中之重,也是AI潜力爆发的关键。他指出,未来的AI交互将不再是简单的“一问一答”。当用户提出一个复杂问题时,AI会像一个人类专家团队一样,进行自主的研究、规划、多工具调用、事实核查、代码执行和最终的答案生成。这个过程可能包含数十甚至数百个步骤,是一个复杂的“思考链”。

“这不再是简单的检索,而是AI在进行研究、验证和创造。每一次‘思考’,都是一次密集的算力消耗,其需求的增长将是指数级的,甚至是‘十亿倍’级别的。”

这个“十亿倍”的预测,初听令人震惊,但细思却合情合理。它并非指用户数量增长十亿倍,而是指单次用户交互所触发的后台计算量将呈几何级数增长。今天的ChatGPT查询可能消耗X单位的算力,而未来的AI助理为我们规划一次跨国旅行(涉及航班、酒店、签证、当地活动、预算优化等),其后台的“思考”过程可能消耗1000X甚至更多的算力。这正是AI从“工具”向“智能体(Agent)”演进的本质。

2

“AI工厂”:

智能时代的发电厂

基于对“思考”式推理需求的洞察,黄仁勋顺势抛出了他最具震撼力的概念——“AI工厂”(AI Factory)。

他预测,若要让人工智能为全球GDP(目前约100万亿美元)额外增加10万亿美元的价值,全球每年需要投入约5万亿美元的资本开支(Capex)来建设和运营这些“AI工厂”。这些工厂的输入是数据和电力,输出的则是“智能”这种全新的、高价值的商品。

面对自己预见的淘金热,黄仁勋的策略显然不是只做一个卖铲子的商人。英伟达正在进行一场深刻的转型,旨在成为这场新工业革命中,从设计、建造到运营“AI工厂”的“总承包商”。英伟达的成功始于GPU,但其未来绝不止于GPU。黄仁勋深知,单一硬件的领先优势是脆弱的。因此,英伟达的战略核心是构建一个几乎无法绕过的全栈生态系统。

  • 芯片层(The Silicon):从Hopper到Blackwell,再到未来的Rubin架构,英伟达以惊人的速度迭代其核心计算单元。
  • 系统层(The System):通过NVLink和NVSwitch等技术,将数万个GPU高效互联成一台“超级计算机”,如DGX SuperPOD。
  • 网络层(The Network):收购Mellanox获得的InfiniBand和Spectrum-X以太网技术,解决了AI集群中至关重要的通信瓶颈,确保数据在GPU之间无缝流动。
  • 软件层(The Software):这才是英伟达真正的“护城河”——CUDA。这个拥有超过二十年历史的并行计算平台,锁定了数百万开发者。其上层的cuDNN、TensorRT、Triton Inference Server等一系列软件库,为AI模型的训练和推理提供了极致的优化,使得开发者能够轻松榨干硬件的每一分性能。

3

我们面临的是“算力短缺”

而非“AI过剩”?

面对甚嚣尘上的“AI泡沫论”,黄仁勋予以坚决驳斥。他认为,市场非但没有过热,反而面临着严重的结构性短缺。

范式转移:加速计算全面替代通用计算

黄仁勋的核心论点是,我们正处在一场深刻的计算范式转移中:加速计算(Accelerated Computing)正在全面替代通用计算(General-Purpose Computing)。

过去数十年,全球价值数万亿美元的IT产业都建立在以CPU为核心的通用计算之上。然而,随着摩尔定律放缓,CPU的性能增长已近停滞,无法满足AI等应用对算力的指数级需求。而以GPU为代表的加速计算,通过并行处理,能以更高的效率和更低的能耗处理这些任务。

因此,当前对AI算力的高需求,并非短期炒作,而是全球IT基础设施从CPU向GPU+CPU混合架构进行“换代升级”的长期、必然趋势。黄仁勋认为,这片价值万亿美元的存量市场正等待被重塑,这为英伟达提供了未来十年甚至更长时间的增长动力。从这个角度看,当前的“算力短缺”才刚刚开始。

对生态的信心:OpenAI的亏损与万亿市值之路

对于合作伙伴OpenAI目前仍处于亏损状态,黄仁勋表现出极大的乐观。他坚信OpenAI将成为下一家万亿美元市值的公司。这份信心,源于他对“AI工厂”商业模式的笃定。

在他看来,OpenAI正在做的是前期投入巨大的基础设施建设和技术研发,这与亚马逊早期建立AWS云服务时长期亏损的逻辑如出一辙。一旦“智能”这种商品的生产成本随着规模效应和技术进步而下降,同时应用场景大规模爆发,其盈利能力将是惊人的。OpenAI的成功,将是整个“AI工厂”生态价值的最终证明,也将反过来驱动对英伟达基础设施的更大需求。

结语:

黄仁勋的最新访谈,无疑给我们带来了深刻的思考。它标志着行业的思考深度,已从单纯追求模型参数和跑分,跃升到构建全新工业体系的宏大层面。

“AI工厂”的时代或许真的正在到来,而英伟达已经占据了最有利的位置上。然而,建造这些史无前例的工厂只是第一步,如何驾驭其中涌现出的磅礴“智能”,使其成为推动人类文明进步的福祉而非风险,将是我们所有人需要共同面对的、更宏大的课题。