智能体时代来临,它的存储搭子如何升级?

在生成式人工智能爆发后,智能体正悄然成为产业新热点。从个人AI助手到多智能体协作系统,它们具备自主感知、任务执行、持续对话和动态决策的能力,正在各行业中落地应用。而在这一切背后,智能体对底层基础设施,尤其是数据存储系统,提出了前所未有的新要求。

在生成式人工智能迅猛发展的当下,智能体(AI Agent)已成为产业新焦点。从个人AI助手到多智能体协作系统,它们凭借自主感知、任务执行、持续对话与动态决策能力,在各行业崭露头角并逐渐落地应用。对此,智能体对底层基础设施,特别是数据存储系统,也提出了前所未有的新要求。

从ChatGPT到多智能体协作:AI新形态崛起

2022年底,ChatGPT的出现让AI助手进入大众视野,它能够记住用户的上下文,持续回答问题,甚至创作内容。然而,智能体的发展远不止于此。

进入2024年后,多个由企业、开源社区开发的“多智能体系统”相继亮相。Manus、ChatDev、AutoGen、MetaGPT等项目通过配置一组智能体,在软件开发、自动流程控制、项目管理、任务执行等领域展开协作,模拟人类团队工作模式。

这些系统中的每一个Agent都承担不同角色,比如CEO负责设定目标,CTO制定技术路线,工程师编写代码,测试人员自动测试。这类系统的工作方式发生了根本性转变——从人类驱动AI到AI自行协作决策执行。智能体不再是“工具”,而是“合作者”。

这一趋势的背后,对计算资源的需求变得持续且动态,但更关键的是:智能体离不开数据。

智能体的运行并不仅仅依靠算力。随着其功能变得更复杂、运行时间更长、对话更持续,它们对于“数据”的依赖程度急剧上升:

1、智能体往往基于长上下文记忆执行任务。像GPT-4、Claude等模型已支持超长Token窗口,但这只是第一步。为了更高效的记忆调取,系统需要使用KV Cache(键值缓存)或外部向量数据库来访问。存储系统必须提供极低延迟、高并发的访问能力。

2、智能体会持续对任务进行调整优化,需要频繁读写临时数据,生成中间步骤结果、缓存用户状态、存储反馈结果。这对存储系统的实时响应和一致性提出挑战。

3、当多个Agent需要共享某一任务状态或数据时,网络通信之外,底层存储必须支持高效的数据复制、共享缓存、跨节点一致性。

简言之,智能体需要的不只是“记忆”更多,而是“更聪明的记忆系统”。

面向智能体的存储演进趋势

智能体的落地推进了AI基础设施的再定义,也让“存储”从幕后走到台前。全球范围内,多家企业和机构正在对“智能体时代的存储”展开布局,呈现以下趋势:

趋势一:从通用存储向“AI原生存储”演进

以曙光FlashNexus、华为OceanStor、HPE Alletra Storage MP为代表的新一代AI存储系统,将AI算力适配作为设计起点:支持NVMe高并发协议、内置KV Cache、向量检索优化、算存分离等。

趋势二:存储系统智能化,实现“自主服务”

现代AI存储系统开始集成AIOps能力。比如,Alletra系统结合HPE InfoSight智能平台,可以自动分析负载、预测故障、建议调优配置。这种“智能存储”不再需要人来“调”,而是能感知智能体需求,主动服务。

趋势三:融合高速网络,打通数据通路

随着数据通路成为瓶颈,光纤通道(FC)、RDMA、NVMe over Fabric(NVMe-oF)等高速互联技术成为智能体系统的“输血管道”。HPE B系列光纤交换机、英伟达GDPS系统等产品正加速从“存储网”向“AI网”升级。

当智能体协同系统横跨数据中心部署时,存储+网络协同优化就是不可或缺的底座。

最后

从AI助手到超级Agent、从单点智能到多体协作,AI智能体的出现不是一个“模型升级”的问题,而是一次“系统进化”的开始。而作为数据承载、管理、调配的中枢,存储系统正从后台“管家”,转型为AI智能体的“智能搭子”。