云开发者正加速采用基于 Arm 架构的平台,凭借其无可比拟的每瓦性能和成本优势,更快落地可扩展并投产的 AI 工作负载。

人工智能 (AI) 正重塑数字格局,开发者也正面临全新挑战:基础设施不仅要具备强大算力,还需兼具可扩展性、成本效益和高能效等特征。当前,亚马逊云科技、谷歌、微软、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大规模云服务提供商与 AI 领军企业,均已基于 Arm 架构打造定制化解决方案,布局 AI 数据中心。
这一趋势正在蓬勃展开。2025 年头部超大规模云服务提供商的新增服务器算力中,有近半数是基于 Arm 架构。Arm Neoverse 平台正在为量产级 AI 工作流、向量搜索引擎、实时机器学习 (ML) 平台及云原生微服务提供算力支撑,同时在成本效益、吞吐量与节能方面实现可量化的显著提升。随着 AI 工作负载持续扩展,基础设施的选择愈发关键。
AI 工作负载贯穿端到端,Arm 赋能全流程优化
AI 的应用早已不再局限于推理或模型训练环节。从数据预处理、模型编排,到实时服务与内存管理,如今的 AI 技术栈已覆盖整个计算工作流。这也带来了延迟、成本、功耗及扩展性方面的全新系统级挑战,而这些早已超出了传统通用 CPU 的设计初衷与能力范围。
Arm 在这场变革中扮演核心角色——其价值不仅限于 CPU 层面,更贯穿整个 AI 系统架构。
在亚马逊云科技, Arm Neoverse 核心为 Graviton 通用计算平台、Nitro 数据处理单元 (DPU)提供算力支撑,并作为 AI 加速器的头节点 (head node),为 AI 工作流打造高度集成、能效出众的基础设施。
NVIDIA亦采用类似架构设计:Arm 架构是 Grace 与 Vera CPU 的技术基石,二者均作为 AI 系统的头节点部署;同时 Arm 还为 BlueField DPU提供算力支撑,助力数据迁移与卸载处理,为 AI 数据中心设计打造一体化的平台解决方案。
凭借卓越的每瓦性能、强大的内存带宽,以及在Amazon Graviton、Google Cloud Axion、Microsoft Azure Cobalt、NVIDIA Grace 等平台上的规模化部署,基于 Arm 架构的基础设施正日益成为可扩展、高性价比 AI 工作负载的优选方案。
Arm 正成为云计算的新标准
云计算领域正经历一场战略性转变:全球领先的云服务提供商均在加码基于 Arm 架构的基础设施建设,将其作为融合型 AI 数据中心规模化部署的默认路径。这并非试点探索,而是着眼于长期的架构战略。
在软件层面,Atlassian、Spotify 和 优步 (Uber) 等企业,已开始借助通用工具与社区文档,将核心工作负载迁移至基于 Arm 架构的云基础设施,且无需对底层平台进行深度重构。Atlassian 表示,在将核心服务迁移至 Arm 实例后,计算成本显著降低,CI/CD 工作流运行速度也得到提升;Spotify 在后端工作负载中试用 Graviton 平台后,实现了显著的基础设施效率提升;Uber 则通过基于 Arm 架构的基础设施,在优化微服务性能的同时,降低了单实例的运营成本。
与此同时,Arm 提供的一系列工具正加速这一迁移进程。例如 Arm MCP(模型上下文协议)服务器以及集成于 GitHub Copilot 的 Arm 云迁移智能体 (Cloud Migration Agent),正帮助开发者评估工作负载兼容性、加快云迁移进程,并实现稳定可靠的规模化部署。目前,专为各类 Arm 云平台量身打造的Arm MCP 服务器已面向所有软件开发者开放,它可将云迁移工具与专业经验直接融入开发者常用的 AI 助手中,从而赋能自主化的智能体工作流。
通过自动化最佳实践、加速开发流程并提供实时指导,该工具显著简化了迁移路径,让开发团队从项目首日起,即可更轻松地获得成本、能效与性能优势。早期用户的反馈也验证了其在真实迁移场景中具备高度实用性。
开发者转向 Arm 架构的五大案例
除上述全球软件企业外,其他科技公司在日常运营中采用基于 Arm 架构的云基础设施时,也收获了类似效益。
1. 借助 Graviton3,LLM 推理成本降低 35%
Vociply AI 是一家专注于大规模部署大语言模型 (LLM) 的 AI 初创企业,在切换至 Amazon Graviton3 后,其月度基础设施成本从 2000 美元降至 1300 美元,同时性能实现同步提升,具体包括:
· 性价比提升 40%
· 词元(token)吞吐量提升 15.6%
· 功耗降低 23%
这一成果得益于 Arm Neoverse 核心、Neon™ 指令集深度优化,以及 llama.cpp 等量化推理引擎的支持。
2. 生成式 AI 工作流提速,基础设施成本降低 40%
生成式 IT 及 AI 解决方案平台 Esankethik将其完整技术栈——涵盖预处理、训练与推理环节,全面迁移至基于 Arm 架构的 Graviton 实例,取得了显著成效,具体包括:
· 推理业务延迟降低 25%
· 每百万次请求的 Lambda 成本降低 40%
· 内存效率提升 15%
通过在 Arm 平台上统一运行预处理、训练与推理任务,Esankethik有效缓解了性能瓶颈,并显著提升了系统可扩展性。
3. SiteMana 实现实时 ML 的稳定规模化
获客技术公司 SiteMana 已将其实时 ML 推理与数据摄取任务迁移至Graviton3 平台,并取得了显著成效:
· 月度成本降低约 25%
· P95 延迟降低约 15%
· 网络带宽提升 2.5 倍
此次迁移有效解决了 CPU 降频问题,并实现了峰值负载下的系统性能稳定。
4. AuthZed 提升开发者工作流效率
AuthZed 作为基础设施服务授权平台,已将其从开发笔记本到云端的所有工作负载统一迁移至 Arm 架构,由此实现了:
· 本地构建速度提升 40%
· 生产环境 CPU 利用率提升 20%–25%
· 计算成本降低约 20%
该方案在不改变开发者既有工作习惯的前提下,实现了工作流程的大幅精简优化。
5. Zilliz Cloud 提升 AI 搜索吞吐量
面向生产级 AI 应用的全托管向量数据库平台 Zilliz Cloud,将其向量搜索引擎迁移至 Graviton3 后,实现了以下优化成果:
· 索引构建性能提升 50%
· 十亿级查询场景下,向量搜索速度提升 20%
· 单查询成本降低,吞吐量提升
该成果适用于语义搜索、检索增强生成 (RAG) 及多模态 AI 任务。
为 AI 云时代而生
Arm Neoverse 专为现代工作负载打造——涵盖LLM、向量搜索、实时ML、数据分析及高密度微服务等场景。与 x86 相比,基于 Arm 的实例具备以下优势:
· 更卓越的性价比优势
· 更出色的 AI 与云原生工作负载性能
· 成熟的软件生态与完善的开发者工具链
· 通过 Arm KleidiAI 为 AI 框架提供优化支持,实现无缝性能调优与集成
Arm 提供涵盖开发者资源、性能调优指南与云迁移清单在内的完整套件,显著简化 AI 与云工作负载的迁移流程。这些资源可降低迁移阻力,支持性能调优,且无需对平台进行全面重构。
开发者可通过 Arm 云迁移计划获取迁移资源、技术指南及专家咨询服务。
此外,Arm MCP Server 现已向所有开发者开放,可帮助识别并高效执行从 x86 到 Arm 架构的迁移。开发者可点击此处,访问 Arm MCP Server。
AI 时代的基础设施平台
基于 Arm 的云基础设施正快速成为 AI 计算战略的基石。
随着工作负载持续扩展,能效的重要性日益凸显,基础设施需以更少资源提供更多价值。Arm 为打造下一代 AI 系统的开发者,提供了切实可行的实践路径。








