Akamai与NVIDIA强强联手,以Inference Cloud开启AI智能新纪元

在全球范围内提供可扩展、安全且低延迟的 AI 推理,为智能体 AI 和实体 AI 浪潮提供助力

2025 1029负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。

Akamai Inference Cloud 能够在靠近用户和设备的边缘实现智能化的智能体 AI 推理。与传统系统不同,该平台是专为在全球范围内提供低延迟、实时边缘 AI 处理而打造的。此次推出的 Akamai Inference Cloud 依托 Akamai 在全球分布式架构方面的专业能力以及 NVIDIA Blackwell AI 基础架构,对释放 AI 真正潜力所需的加速计算进行了颠覆性的重构与扩展。

从个性化数字体验、智能体到实时决策系统,下一代的 AI 应用程序迫切要求将 AI 推理部署在更靠近用户的位置,从而在用户的交互点实现即时互动,并就请求的路由路径做出智能决策。智能体工作负载日益需要低延迟推理、本地环境感知以及即时进行全球扩展的能力。专为推动此变革而打造的 Akamai Inference Cloud 是一个分布式、生成式边缘平台,它可以将 NVIDIA AI 技术栈部署在更靠近数据生成和决策制定的位置。

Akamai首席执行官兼联合创始人Tom Leighton博士表示:”下一波AI浪潮的发展同样需要靠近用户——这正是互联网能够扩展为今天广泛应用的全球平台的原因。Akamai过去曾成功解决过这一难题,如今我们再次应对这一课题。依托NVIDIA的AI基础设施,Akamai Inference Cloud将通过部署在全球数千个节点的AI决策能力,来满足日益增长的AI推理算力与性能扩展的需求,从而实现更快速、更智能以及更安全的响应。”

NVIDIA创始人兼首席执行官黄仁勋指出:”推理已成为AI中计算最密集的环节——需要在全球范围内进行实时推理。NVIDIA与Akamai共同协作正在将推理能力部署更靠近每一位用户,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。”

Akamai Inference Cloud 通过将智能化的智能体 AI 推理扩展到更靠近用户和设备的位置,重新定义了应用 AI 的场景和方式。该平台将 NVIDIA RTX PRO Server(配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPUNVIDIA BlueField-3 DPUNVIDIA AI Enterprise 软件)与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,200 个位置的全球边缘网络相结合。Akamai Inference Cloud 将充分利用 NVIDIA 最新的技术(包括最近发布的 NVIDIA BlueField-4 DPU)来进一步加速和保护从核心到边缘的数据访问及 AI 推理工作负载,以推动 Akamai 实现其打造全球高度可扩展、分布式 AI 性能的愿景。

Akamai 与 NVIDIA 共同协作,通过 Akamai Inference Cloud,以前所未有的大胆举措将 AI 推理拓展至全新领域,共同开创 AI 的新篇章:

  • 将企业级 AI 工厂扩展到边缘,以赋能商业智能体并实现个性化的数字体验:AI 工厂是强大的动力引擎,负责统筹管理从数据提取到大规模生成智能的整个 AI 生命周期。Akamai Inference Cloud 将 AI 工厂扩展到边缘,实现数据和处理的去中心化,并利用 Akamai 的大规模分布式边缘位置将请求路由至最优模型。这将使智能体能够即时适应用户的位置、行为和意图,并自主地实时完成协商、购买和交易优化。
  • 赋能流式推理和智能体,以提供即时金融见解并执行实时决策:AI 智能体需要多次连续推理才能完成复杂的任务,这会产生延迟,进而削弱用户参与度。智能体 AI 工作流程需要多次推理调用,而如果每次调用都会产生网络延迟,那么将导致体验出现迟滞,或者响应过慢而无法满足机器对机器的延迟要求。Akamai Inference Cloud 的边缘原生架构可提供近乎即时的响应,使 AI 智能体能够在多步骤工作流程中以媲美人类的响应速度运行。这在欺诈检测、加快安全支付速度以及为工业边缘实现高速决策方面非常有用。
  • 使实时实体 AI 能够以超越人类的响应速度运行:无人驾驶汽车、工业机器人和智慧城市基础设施等实体 AI 系统需要毫秒级精度的决策能力,才能安全地与现实世界进行交互。Akamai Inference Cloud 旨在为实体 AI 赋能,使其能够实时处理传感器数据、制定安全决策以及协调行动。这有助于将从工厂车间、配送无人机到手术机器人和无人驾驶交通网络的一切,转变为能够与人类进行安全协作、响应迅速的智能系统。
  • 加快价值实现速度:在多个云区域中编排复杂的分布式 AI 工作负载需要专业的技能和团队。Akamai Inference Cloud 的智能编排层会自动将 AI 任务路由到最优位置——常规推理会在边缘通过 NVIDIA  NIM 微服务即时执行,而复杂的推理会利用集中式的 AI 工厂,所有这些都通过统一的平台进行管理,从而消除了基础架构的复杂性。

Akamai Inference Cloud 现已推出,首批将覆盖全球 20 个地点,并且正在计划进一步扩大部署范围。