2025年10月,Akamai与英伟达联合发布重磅方案Akamai Inference Cloud,将AI推理工作负载从核心数据中心扩展至互联网边缘,重新定义AI应用场景与实现方式。这一平台依托Akamai覆盖100多个国家的4200多个节点,整合英伟达Blackwell AI基础架构,为全球低延迟、实时边缘AI处理提供新解法。近日,Akamai亚太区与全球云架构师团队总监李文涛接受采访,深度解读边缘推理云的技术突破、市场价值及行业影响。

Akamai亚太区与全球云架构师团队总监李文涛
核心洞察:AI推理负载将达训练十亿倍,边缘成必争之地
随着AI技术从“模型训练”向“落地应用”加速迈进,推理环节的重要性日益凸显。英伟达CEO黄仁勋曾预判“AI推理工作负载规模将达训练阶段的十亿倍”,这一判断成为Akamai布局边缘推理的关键依据。
“以ChatGPT为例,截至2023年11月其月活用户已突破8亿。训练一个模型或许只需数万张GPU运行几周或数月,但推理阶段要服务数亿乃至未来数十亿用户,可能需要百万量级甚至更多GPU支持。”李文涛进一步解释,这种量级差异倒逼算力基础设施必须重构——传统中心化云架构在延迟、扩展性上已无法满足需求,“智能驾驶、IoT设备交互、金融反欺诈等场景,需要毫秒甚至微秒级响应,只有将AI推理部署在靠近用户的边缘节点才能实现。”
Akamai的调研显示,当前市场正面临三大核心痛点:一是推理负载爆发式增长带来的算力缺口;二是智能体时代对实时性的极致要求;三是全球用户增长催生的扩展性需求。“这三点正是我们推出Inference Cloud的核心动因,也是边缘AI成为行业新赛道的底层逻辑。”李文涛强调。
技术突破:分布式架构+英伟达算力,打造“四维价值闭环”
不同于传统AI云平台,Akamai Inference Cloud以“分布式边缘”为核心架构,通过与英伟达的深度合作,构建起覆盖算力、路由、安全、成本的“四维价值闭环”。
在算力部署层面,该平台首批集成英伟达RTX PRO 6000 Blackwell服务器版GPU,覆盖全球20个核心节点,并计划逐步扩展至更多位置。“这款GPU是经过多场景验证的平衡之选——既能支撑300亿至1000亿参数规模的大语言模型推理,也能满足文生图、语音转换等专属模型需求,同时支持虚拟化和资源分片技术,可提升多任务处理效率。”李文涛介绍,搭配英伟达BlueField-3 DPU与AI Enterprise软件,边缘节点的网络处理、虚拟化性能得到进一步强化,“CPU负责统筹、GPU专攻AI计算、DPU优化I/O,三者协同让边缘服务器既能处理复杂AI任务,又能支撑海量用户高并发访问。”
更关键的是,Akamai将27年积累的边缘网络能力融入AI推理场景:通过4200多个分布式节点实现“智能路由”,可根据用户上下文将请求分配至最优模型;依托“双向安全管控”,对AI API调用进行权限验证、对返回内容做合规审核;借助传统CDN优势优化API请求性能,“我们的边缘平台能实现95%互联网用户单跳访问,延迟控制在10毫秒左右,比传统中心云低10倍以上。”
成本优势同样显著。李文涛以“出方向”网络流量为例:“主流公有云定价约0.10美元/GB,而Akamai凭借全球骨干网资源,成本仅0.005美元/GB,低20倍以上。按百万Token处理成本测算,我们能帮企业降低40%-60%基础设施开销。”
场景落地:从媒体娱乐到智能驾驶,边缘推理重构行业规则
在李文涛看来,边缘AI推理并非简单的“算力下放”,而是对行业应用逻辑的深度重构。目前,Akamai Inference Cloud已在多个领域实现突破性落地。
在媒体娱乐行业,Akamai与营销技术企业Monks合作的8K视频处理场景颇具代表性。“系统需实时采集多路比赛直播信号,通过AI自动识别精彩瞬间并生成数字图片资产,同时保障视频流通过5G网络实时直播。”李文涛解释,这类场景对时效性要求极高,“只有在靠近5G基站或用户的边缘节点处理AI任务,才能避免视频卡顿、精彩画面延迟生成的问题。”
电子商务领域,边缘推理则成为“实时个性化”的关键支撑。“传统推荐系统依赖中心化云处理用户数据,往往存在10-20秒延迟;而通过边缘节点,可结合用户地理位置、设备环境等实时上下文,在毫秒级内生成推荐结果,大幅提升转化率。”
更具颠覆性的是对智能驾驶、工业机器人等“实体AI”场景的赋能。“无人驾驶系统若依赖百公里外的中心云,延迟可能达数百毫秒,足以引发安全事故;而边缘推理能让决策在100毫秒内完成,满足机器速度级响应需求。”李文涛补充,金融行业的实时欺诈检测也受益显著——用户交易数据在本地边缘节点处理,既降低延迟,又避免数据跨境传输带来的合规风险。
中国策略:聚焦企业出海,提供“算力+合规+服务”三位一体支持
针对中国市场,Akamai Inference Cloud将核心发力点锁定在“企业出海”场景,通过定制化布局解决中国企业的痛点。
“中国企业出海时,不仅需要高性能算力,更面临数据合规、本地化服务的挑战。”李文涛指出,Akamai的分布式架构能确保用户数据在目标市场本地处理,满足GDPR、CCPA等国际合规要求,“例如某跨境电商在欧洲部署AI推荐系统,通过我们的边缘节点,数据无需出境即可完成推理,既符合当地法规,又提升响应速度。”
服务层面,Akamai组建了以技术人员为主的支持团队——超过2/3员工为技术岗,结合多年出海服务经验提供“顾问式咨询”,并通过全球办公室实现24×7时区覆盖。“某中国游戏厂商在海外推出AI NPC交互功能,我们不仅提供边缘算力,还协助其优化模型路由策略,将用户等待时间从15秒缩短至2秒内。”
对于与国内云厂商的关系,李文涛强调“合作大于竞争”:“市场空间足够广阔,许多本土云厂商也会使用Akamai的边缘能力支撑海外业务。未来我们希望通过技术互补,共同推动AI推理在全球市场的普及。”
未来展望:“云边协同”成主流,边缘推理开启千亿级市场
谈及AI算力的未来格局,李文涛提出“核心云训、边缘云推”的协同模式:“中心云适合大规模模型训练,边缘云擅长高性能推理,两者通过高速网络连通,形成‘训练-部署-推理-优化’的完整闭环。”
这种模式将催生新的行业机遇。据Akamai测算,随着智能体交互量增长,未来AI推理市场规模将达千亿级美元,“每个行业都可能诞生新的应用形态——例如工业领域的实时质检、医疗行业的远程手术辅助,这些场景都需要边缘推理作为基础支撑。”
对于Akamai的定位,李文涛清晰地表示:“27年前我们构建了互联网的边缘基础设施,如今希望升级为AI智能体的全球分布式平台。当全球用户使用AI服务时,Akamai的边缘节点能成为背后可靠的算力支撑,让智能体时代的实时交互成为常态。”
目前,Akamai Inference Cloud已正式商用,首批20个节点覆盖北美、欧洲、亚太等核心市场。随着部署范围扩大,边缘推理或将成为AI落地的“新基建”,推动更多行业进入“机器速度智能”时代。







