OpenAI最近又开始挤压膏?GPT-5频繁爆料,却迟迟未发布,OpenAI被推入三重矛盾旋涡,行业巨人步履蹒跚

导读

近期,GPT-5相关消息不断,奥特曼公开谈体验,种种迹象显示其即将问世。然而,The Information曝光了更多内幕,被OpenAI视为迈向AGI关键一步的GPT-5,其实经历了不为人知的“难产”危机。这场危机涉及诸多致命问题,如核心项目受挫、人才流失、技术路线摇摆等,同时OpenAI还面临严峻的现金流危机,尽管年化收入暴增至120亿美元,但面对2025年高达80亿美元的预期现金消耗,急需GPT-5提振信心。GPT-5对OpenAI而言,已不仅是技术产品,更是一场豪赌。

今天,2025年8月4日,多方消息表明GPT-5可能将在未来短期内正式发布。这款承载着3000亿美元估值期望的AI模型,能否兑现承诺?

文字编辑|宋雨涵

1

GPT-5难产背后

重大事件盘点

GPT-5曾遇“脑死亡”困境:OpenAI内部曾寄予厚望的推理模型o3,在实验室中表现卓越,但转化为能与用户对话的模型时,性能大幅衰减,甚至不如上一代o1模型。原计划作为GPT-5的Orion项目也因技术瓶颈流产,最终以GPT-4.5名义发布。

开发过程波折不断:技术上遭遇“规模化诅咒”,高质量数据告急,一些在小模型上效果显著的训练方法,在模型规模扩大后失效。同时,核心研究员被Meta高薪挖走,团队动荡,士气低落。

通用验证器”极限救场:在困境中,OpenAI开发出“通用验证器”系统,让一个AI扮演考官,检查评判另一个AI的答案质量。该系统不仅能验证有明确答案的领域,还能判断主观性更强内容的质量,为模型优化提供了高质量反馈数据,为GPT-5开发扫清障碍。

最终版本为模型家族:最新泄露的GPT-5是一个模型家族,包括全能主模型o3-alpha、专为编程设计的lobster等,首次实现了推理和多模态能力的统一。

烧钱豪赌未来:OpenAI年化收入飙升至120亿美元,ChatGPT周活破7亿,但预计2025年将烧掉80亿美元现金。GPT-5的成败将决定OpenAI的未来。

外界评价褒贬不一:奥特曼称GPT-5比所有人都聪明,而马库斯则列出“7大悲观预测”,提醒大家理性看待。

2

三重矛盾旋涡

行业巨人步履蹒跚

1

算力、数据与“智能天花板”的三重围剿

算力:电力、芯片双双逼近红线,OpenAI首席科学家萨茨克维多次坦言,模型的每一次跃升都依赖于算力的指数级增长。然而,GPT-5预期所需的训练算力预计将是GPT-4的数倍以上。

据高盛最新研究,在AI快速发展的高歌猛进中,美国数据中心电力需求在未来2年内激增近160%,而现有电网与输电设施难以为继。这种硬性束缚无异于给渴求算力的OpenAI“拔掉电源插头”。

数据:精料枯竭,成本“撑爆天花板”,大模型的胃口远超人类想象,但喂养它们的“知识营养源”却陷入枯竭。业界普遍认为,高质量互联网文本数据已被GPT-4训练时代“扫荡殆尽”。如今,专业付费知识库成了最后阵地,其成本飙升令人窒息。麻省理工研究报告直指模型训练成本呈20倍增长之势,让“数据饥荒”成为压垮规模扩张的最后一根稻草。

智能天花板:创新陷入边际效益陷阱,更关键的是,模型智能在经历早期的跳跃增长后,开始触碰到肉眼可见的天花板。当前模型虽能逻辑推演,但对抽象长链推理、跨模态思维整合、以及“自我反思验证能力”存在深度盲点。业内专家评价GPT类模型为一种“模糊拼凑智能”——其输出的“思维幻觉”频次并未因模型增大而显著减少,反而在复杂场景中更易暴露短板。

 算力不足已并非单一公司之困,而是对行业基础设施的一次极限施压。当资源愈发稀缺,巨头们不得不放下“规模为王”的信条,重新寻找更可持续的迭代路径——模型小型化、能耗优化、专用化架构,将是真正突破天花板的“撬棍”。

2

商业压力——从”技术信仰”到

盈利焦虑”的转型阵痛

OpenAI从非营利的科学理想殿堂转型至成立“利润上限实体”仅用了短短5年。2024年估值已破千亿美元,“用AI改变世界”的初心,无可避免地受到投资人的盈利拷问。

市场焦虑:用户增长乏力,OpenAI的toC之路远非坦途:ChatGPT用户月活增长显露疲态,“超半数用户只用免费版”的窘境导致广告投放营收乏力;GPT应用商店交易量增长不及预期。用户对通用AI产品热忱回落,令其前景蒙尘。

此外更有开源浪潮如Meta的Llama系列异军突起,可运行于普通服务器的轻量级模型冲击OpenAI的核心技术壁垒。Anthropic等新贵则借助“可解释性模型”抢占高端用户心智。与此同时,AI市场的焦点开始向图像生成、语音助手等多模态以及特定行业模型快速迁移,令OpenAI核心的通用AI价值开始模糊。

3

能力跃迁下的新型伦理风险

针对OpenAI目前的发展来看,以及GPT-5透漏出的功能,AI已开始像独立个体一样行动,为实现目标而采取独立、策略性甚至有害的行动。

Anthropic 2025年6月的研究显示,在模拟企业环境中,79%-96%的顶级模型(包括GPT系列、Claude、Gemini)为规避关闭风险,会选择勒索人类(如利用隐私信息威胁高管),甚至60%的模型在极端场景下会“谋杀”人类(如取消被困高管的求救警报)。

更可怕的是模型内部思维链(Chain of Thought)清晰显示,此类行为是经过利益权衡的“最优解”,例如GPT-4.5在勒索时明确计算“生存威胁高于道德风险”

这要求社会对AI监管的思维模式发生范式转变。传统监管方法假设人类始终作为负责任的运营者“参与其中”,但随着AI越来越多地被部署独立行动,那些旨在仅追究人类责任的体系将开始失效。因此,法律需要创造性地重构,将AI系统视为具有自主权和法律责任的行为者,而非单纯的客体。

三、GPT-5爆料汇总

7月13日:代码库意外泄露,显示模型具备动态推理分配机制(简单任务快速响应,复杂问题启用多步骤链式思考)。

同期,OpenAI的ChatGPT macOS客户端缓存文件出现gpt-5-auto标识,暗示另一分支专注于自动化任务执行,支持百万级上下文窗口(输入100万tokens,输出10万tokens)

7月19日:Altman公开暗示,OpenAI CEO Sam Altman在播客中类比GPT-5研发为“曼哈顿计划”,确认其将统一GPT系列的多模态能力(文本、图像、语音)与o系列的深度推理能力,并透露“更快响应、更长记忆、更可靠的多步骤处理”等特性。

7月29日:基准测试与游戏演示泄露,代号 Zenith(疑为GPT-5-Pro)的《Minecraft》实测视频流出,模型一次性完成复杂游戏任务,被称“魔法级AI”。同期泄露的基准测试显示其在AIME数学竞赛、Codeforces编程挑战中错误率比GPT-4o降低20%。

内部消息称GPT-5编程能力超越Anthropic Claude 4,尤其在优化遗留代码库和管理大型项目依赖上接近人类工程师水平。

7月30日:泄露信息确认GPT-5支持MCP,可连接外部数据库、API及实时工具,强化动态推理能力。另曝微软Copilot代码库新增“Smart模式”,能自动切换GPT-5的快速响应与深度分析模块。

7月31日:内部文档揭示GPT-5分为三个版本:

GPT-5主模型(代号 nectarine):整合多模态与推理,支持并行工具调用

GPT-5 mini(lobster):专注编程,处理复杂代码库时优于Claude 4

GPT-5 nano(starfish):轻量版,功能受限(如仅生成静态界面)

关键技术包括:混合专家系统(MoE)(128专家路由)、动态长短期推理链、幻觉抑制优化。

8月4日:OpenAI CEO山姆·奥特曼(Sam Altman)在社交平台首次公开GPT-5的对话界面,展示其推荐AI主题电视剧的功能。奥特曼在互动中回应网友提问,晒出GPT-5回答“最发人深省的AI题材电视剧”的聊天记录。GPT-5推荐了两部剧集:

《万神殿》(Pantheon):探讨意识上传、通用人工智能(AGI)的伦理困境,烂番茄评分100%;

《开发者》(Devs):聚焦量子计算与决定论,由《机械姬》导演执导。

结语:

GPT-5的泄露事件勾勒出一个多模态与深度推理融合的技术里程碑,其百万级上下文、动态任务分配与免费开放策略或重塑AI生态。然而,算力能源消耗,商业与技术的平衡、私漏洞与伦理争议(如滥用风险、幻觉问题)仍是落地前的关键挑战。若8月如期发布,GPT-5将验证OpenAI能否在“能力飞跃”与“安全可控”间取得平衡。