3月17日,在2026华为数据存储新春发布会上,华为正式发布针对AI推理场景的全新AI数据基础设施,包含面向中心推理场景的AI数据平台,和面向分支边缘推理场景的FusionCube A1000 AI超融合一体机,旨在推动AI推理体验全面升级,并显著降低推理部署门槛,加速AI商业正循环。
过去几年,AI历经多轮演进,已迈入了以推理为核心的全新阶段。当下,企业正面临两大变化:一是数据类型与规模持续扩展,从文本为主转向多模态格式混合,体量从TB级跃升至EB级;二是企业核心资产从“数据”转变为“知识”与“记忆”,被实时调用以支撑智能体自主决策。这些正全面重塑AI数据基础设施,成为AI行业化落地的关键。
面向中心推理场景 华为推出AI数据平台
为解决推理业务中知识质量不足、长序列推理体验差以及推理记忆缺失的三大瓶颈,华为发布AI数据平台,整合知识库、KV Cache加速和记忆库,并结合UCM技术实现调度与管理,破除企业AI的数据门槛,加速智能体应用落地。

华为存储产品线副总裁、闪存领域总裁 谢黎明
- 知识库:实时生成知识、高精度检索知识
企业数据在不断变化与更新,如果知识转化不及时,会导致模型的推理决策结果不精准。华为AI数据平台采用端到端的解析优化、表征优化与检索优化,提供一个可敏锐捕捉源端数据变化的AI数据管道,并通过多模无损解析、Token级编码等方式,将文本、图片、视频等资源转化成海量细颗粒度的知识,结合多维度检索与重排序,实现超95%知识检索精度。
- KV Cache加速:容纳海量历史数据,加速推理响应
在长文本长序列、多用户多并发的推理过程中,大量的KV Cache数据存不下、系统响应迟缓,导致推理体验恶化。华为AI数据平台针对性提供了全局分层缓存能力,让记忆数据在On-chip memory、DRAM、外置SSD存储三层间按需流动,显著扩充KV Cache存储池,同时融合多种稀疏注意力算法,避免重复计算,大幅扩展上下文窗口,实现首Token时延降低90%。
- 记忆库:高效管理上下文记忆,让模型越用越聪明
当前,大模型普遍缺乏持久的记忆,会遗忘多步骤的中间结果和长期沉淀的历史经验,无法真正实现自我进化。华为AI数据平台提供精准的记忆萃取与召回能力,实现上下文状态保持、信息凝练。记得越多,推理就越精准,模型应用才能“越用越聪明”。

本次发布的AI数据平台可提供一体化和独立式两大部署模式。一体化部署以OceanStor A800为全栈一体机底座;独立式部署采用“数据引擎节点+OceanStor Dorado”架构,可在现有存储系统上新增数据引擎节点,保护历史投资,支撑业务平滑转型。
面向分支边缘推理场景 华为发布FusionCube A1000 AI超融合一体机
如今,大量的数据是在分支边缘场景产生的,针对传统分支边缘场景进行智能化改造过程中所面临的部署复杂、成本高昂、效率低下等问题,华为推出FusionCube A1000 AI超融合一体机,通过集成化与智能化交付,助力AI快速部署与高效运行。

华为存储产品线副总裁、虚拟化领域总裁 张伟力
FusionCube A1000采用通算与智算融合一体化架构,实现AI部署“开箱即用”。其内置的AI平台预集成了数据处理、模型训练与推理全流程能力,基础设施部署与应用上线周期显著缩短80%。同时,FusionCube A1000具备统一运维、安全运营的能力,实现全栈管理、健康监测、故障快速定位定界,为智能体稳定高效地运行提供安全保障。
此外,FusionCube A1000支持边缘与中心协同运行,打破数据孤岛,形成智能体从感知到自主决策的闭环。分支边缘侧产生的数据将回传至中心,在中心侧不断丰富语料、完成模型增训,模型更新后可一键下发至边缘侧,实现模型能力的持续优化与共享。同时,FusionCube A1000支持算力的动态切分与调度,可同时运行多个不同的AI模型,并依据业务优先级智能分配资源,单卡算力利用率提升约30%。其内置平台还支持知识库与记忆库的协同构建,数据飞轮无感运转,持续提升AI模型输出的准确性与实用性。

此次发布的华为AI数据平台与FusionCube A1000,实现了从中心到边缘的AI推理全场景覆盖,为AI技术广泛行业化落地注入新动能。华为数据存储将持续深耕创新,赋能AI全路径,助力企业兑现AI商业价值。





-1.jpg)

