“2026年不是技术单点突破的一年,而是AI与算力深度交织、重塑产业规则的一年。”在Gartner 2026年十大战略技术趋势线上分享会上,Gartner研究副总裁高挺(Arnold Gao)抛出的观点,为正处于数字化转型深水区的中国企业提供了新的坐标系。

一、AI应用:从“通用狂欢”到“领域深耕”,特定领域语言模型与多智能体破解企业落地难题
“95%的企业AI投资未能兑现价值,问题不在模型本身,而在落地方法。”高挺一句话点破当前企业AI应用的核心痛点。在他看来,2026年AI将告别“通用大模型万能论”,转向“特定领域深耕+多智能体协同”的务实路径。
特定领域语言模型(DSLM)被高挺视为企业AI破局的“第一道钥匙”。不同于通用大模型在专业场景中的“水土不服”,DSLM通过企业专属数据微调,能精准适配行业需求。“制造企业把SOP、设备手册、维修记录喂给模型,产线工人问‘A-03号机台报X51错误怎么办’,AI能立刻给出解决方案;律师用法律数据训练的模型,起草合同的准确率比通用模型高30%以上。”高挺以医疗领域的OpenEvidence为例,这个被称为“医生版ChatGPT”的模型,基于权威医学文献训练,能帮医生快速定位疑难杂症解决方案,而其商业模式——对医生免费、向药企收广告费,也为行业提供了新参考。
Gartner预测,到2028年,企业使用的生成式AI模型中超过半数将是DSLM。这意味着,“懂业务”将成为AI模型的核心竞争力,而掌握数据壁垒的企业,将在这场竞赛中占据先机。
若说DSLM解决了“AI懂业务”的问题,多智能体系统(MAS)则攻克了“AI干大事”的难题。“单智能体处理复杂任务的成功率太低,哪怕每步成功率95%,20步后总成功率只剩36%。”高挺用一组数据揭示单智能体的局限性。而多智能体通过“分而治之”的逻辑,将复杂目标拆解为子任务,由不同角色的智能体协同完成——贝塔斯曼用多智能体打通出版、媒体、教育业务的内容搜索,金融平台通过市场、新闻、基本面智能体生成多维股票分析报告,都是典型案例。
“未来企业的AI协作,会像组建一支‘数字团队’:有的智能体负责数据检索,有的负责分析决策,有的负责执行跟踪。”高挺强调,这种模式不仅提升效率,更降低了单一智能体故障带来的风险,是大型企业复杂业务自动化的最优解。
二、算力底座:混合架构成主流,2026年市场进入“效率竞争”新阶段
“2023-2024年算力市场‘有卡就抢’的狂热会过去,2026年将是‘多元化、重效率、控成本’的新周期。”谈及算力市场变局,高挺给出了明确判断。
在他看来,AI超级计算平台的“混合特性”将成为核心趋势。这种混合体现在两个维度:一是算力类型混合,“微软5个足球场大的数据中心里,CPU、GPU、AI ASIC各司其职;苹果M5芯片集成GPU、CPU、NPU,终端设备也能处理部分AI任务”;二是算力调度混合,英伟达最新的NVQLink技术,能连接量子计算与经典超算,“量子计算负责核心运算,传统算力帮它做纠错,不同任务分流到最优架构,这才是高效算力的逻辑”。
这种混合架构的价值,已在多个行业落地。医疗企业用它将新药建模时间从数年缩短至数周,公共事业服务商通过极端天气模型优化电网性能,“算力不再是单纯的‘算力堆量’,而是‘精准匹配’”。Gartner预测,到2028年,40%以上领先企业将把混合计算范式用于关键业务流程,而当前这一比例仅为8%。
对于中国企业关注的算力市场竞争格局,高挺分析道:“英伟达仍会主导高端训练市场,但其垄断地位会被削弱。AMD的MI系列在价格上有优势,谷歌TPU、亚马逊Trainium等云厂商自研芯片,会分流大量推理场景需求。”他特别提到,中低端训练与推理市场将成为竞争焦点,“中国企业在这一领域有机会,比如DeepSeek支持兼容国产芯片的数据格式,就是为了适配本土算力生态”。
更值得关注的是,2026年算力竞争的核心将从“训练速度”转向“推理效率”。“随着AI助手、AIGC应用普及,推理开支会超过训练,企业会更关心‘每美元能做多少次推理’‘每瓦特能完成多少任务’。”高挺指出,这一变化将推动ASIC芯片在推理场景的普及,也会加速算力向边缘端下沉——“手机、工业设备上的NPU能处理简单AI任务,只有复杂运算才会上传云端,这种‘边缘+云端’的混合模式,会成为企业算力架构的标配”。
三、风险防控:AI安全成“必选项”,前置防御与数字溯源构建双重屏障
“AI是把双刃剑,它能自动化业务,也能自动化攻击。”高挺的话,点出了2026年企业面临的新挑战。在AI驱动的新型攻击面前,传统安全防护已显乏力。
高挺以“AI钓鱼邮件”为例,“过去的钓鱼邮件有固定的模式,现在AI能抓取目标的社交媒体信息,生成‘量身定制’的内容,点击率呈指数级上升;勒索软件也不再是固定代码,而是在目标设备上实时生成,传统特征库根本无法识别”。为此,前置式主动网络安全成为必然选择——通过预测性威胁情报及时发现0天漏洞,用自动移动目标防御动态隐藏服务器端口,“就像给企业装了‘预警雷达’,在攻击发生前就阻断风险”。Gartner预测,到2030年,预防性安全解决方案将占企业安全支出的50%。
AI自身的安全防护同样关键。“很多企业把开源模型拿过来就用,相当于‘裸奔’。”高挺解释道,AI模型需要“安全护栏”——防止提示注入、数据泄露、恶意代理行为,而AI安全平台就是这道护栏。“它能集中监测AI活动,统一执行使用政策,比如阻止模型生成危险内容,防止企业数据通过AI泄露。”到2028年,超过50%的企业将通过AI安全平台保护AI投资,这一趋势已十分明确。
数字溯源则为AI生态加上了“信任砝码”。“现在企业开发软件,像造车一样采购开源代码、模型组件,但供应链里藏着漏洞怎么办?”高挺以Linux的XZ Utils后门事件为例,强调软件物料清单(SBoM)、模型清单(MLBoM)的重要性,“就像汽车零部件溯源,企业要清楚每一行代码、每一个模型组件的来源,一旦出问题能快速定位替换”。而对于AI生成内容,C2PA行业标准已落地,“Sora2生成的视频会有水印,用户能清楚识别内容来源,这是构建数字信任的基础”。
四、中国机会:物理AI与AI原生开发成“弯道超车”关键
“中国企业不用盲目追高端算力,在物理AI和AI原生开发这两个领域,有很大的差异化机会。”谈及中国企业的落地优先级,高挺给出了具体建议。
物理AI是中国制造业的“天然赛道”。“机器人进厂‘打螺丝’、仓储物流自动化,这些场景中国企业有深厚积累,技术成熟度也足够。”高挺提到,Gartner预测到2028年,80%的仓库将使用机器人技术,“中国的AGV机器人、工业自动化企业,只要结合AI提升感知和决策能力,就能快速占领市场”。而在智能驾驶领域,蔚来的世界模型实践已证明,“中国企业在物理世界的AI应用上,完全有能力与国际巨头竞争”。
AI原生开发平台则为中国企业提供了“效率红利”。“据不完全统计,现在一些科技巨头已经有约20%-40%的代码用AI生成,这种效率提升是实实在在的。”高挺指出,AI原生开发能让非技术专家参与应用开发,“比如财务人员用平台开发报销自动化工具,HR开发员工培训系统,企业不用扩大开发团队,就能实现业务快速迭代”。到2030年,80%的企业将采用这种模式,“谁先掌握AI原生开发能力,谁就能在数字化转型中抢得先机”。
对于企业如何避免“追风口”,高挺给出了三个判断标准:“第一,看它是否解决真实业务问题,比如‘降低客户流失率’比‘用大模型’更重要;第二,看它能否融入现有流程,孤立的Demo没有价值;第三,看它是否能构建护城河,单纯的技术跟风无法长久。”
在这场对话的最后,高挺强调:“2026年不是技术的终点,而是产业重构的起点。中国企业不用纠结于‘缺高端芯片’,而是要聚焦‘AI与业务的深度结合’——用DSLM懂业务,用多智能体提效率,用混合算力控成本,才能在这场变革中真正破局。”






