2026 年 3 月 17日,英伟达宣布推出 NVIDIA BlueField-4 STX 模块化参考架构,该架构可将Token吞吐量提升高达 5 倍,能效提升高达 4 倍,数据摄取速度提升 2 倍,帮助企业用户、云服务商及 AI 服务商轻松部署加速存储基础设施,以满足智能体所需的长上下文推理能力。
传统数据中心提供大容量通用存储,但难以满足与跨多步骤、多工具和多轮会话的 AI 智能体无缝交互所需的响应速度。智能体需要实时访问数据和上下文工作记忆,以确保对话和多任务的快捷性和连贯性。随着上下文规模的不断扩大,传统存储和数据路径可能会降低 AI 推理的速度,并降低 GPU 利用率。
NVIDIA STX 助力存储厂商构建数据就近并可大规模访问的基础设施,从而使代理式 AI 工厂能够在推理、训练和分析方面提供更高的吞吐量和响应速度。
首个机架级部署方案集成了全新的 NVIDIA CMX™ 上下文记忆存储平台。通过引入高性能的上下文层来扩展 GPU 内存,从而实现可扩展的推理和代理式系统。与传统存储相比,每秒可处理的 Token 提升高达 5 倍。
STX 由 NVIDIA Vera Rubin 平台提供加速,集成了针对存储进行优化的全新 NVIDIA BlueField-4 处理器。该处理器将 NVIDIA Vera CPU、NVIDIA ConnectX® -9 SuperNIC 相结合,并配合 NVIDIA Spectrum-X™ 以太网网络、NVIDIA DOCA™ 以及 NVIDIA AI Enterprise 软件共同运行。
与传统 CPU 架构相比,STX 架构的能效提升高达 4 倍,从而实现高性能存储,并且在处理企业级 AI 数据时,每秒可处理的内存页数提升 2 倍。
众多存储厂商合作伙伴正在基于 NVIDIA STX 共同设计新一代 AI 基础架构,包括 Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data 和 WEKA。
正在构建基于 STX 系统的制造合作伙伴包括 AIC、Supermicro 和 Quanta Cloud Technology(QCT)。
计划采用 STX 进行上下文记忆存储的主要 AI 实验室和云服务提供商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、OCI 和 Vultr。
英伟达表示,基于 STX 的平台将于今年下半年由合作伙伴推出。



