昇腾AI:深耕算力底座,驱动AI产业变革

导读


2025年3月27日,由上海市计算机学会指导,DOIT传媒主办,算力豹、百易存储研究院、CXL技术应用俱乐部、上海市计算机学会存储技术专委会、上海交通大学计算机系支持的“2025人工智能基础设施峰会”在上海龙之梦万丽酒店盛大召开。

峰会上,华为上海政企计算业务副总经理王勇桦带来了《深耕算力底座,加速AI赋能千行万业》的主题演讲,深度剖析了大模型发展态势、算力需求变化以及昇腾AI的全方位布局,为人工智能产业发展提供了新的思路与方向。

文字编辑|李祥敬

1

大模型发展:从技术探索到工程创新双轮驱动

新一轮“百模千态”

大模型的发展历程,最早可追溯至Google提出Transformer架构,随后大模型相继诞生。ChatGPT的爆火让大众熟知“大模型”概念,而DeepSeek的问世则为大模型发展带来了新的变革。它不仅发布了多款全参数模型和蒸馏版本模型,满足不同行业部署需求,还通过开源及后训练范式,降低行业用户使用大模型门槛,引发新一轮“百模千态”。
DeepSeek推出的COT链式思维管理模式,赢得了众多用户的关注。在新药研发等场景中,COT推理过程能帮助科研人员更快验证假设命题,减少重复试错,提高研发效率。对于头部基模型厂商而言,虽然他们在模型参数量增长和后训练范式选择上各有研究,但仍遵循Scaling原则,不断提升模型能力和性能。
DeepSeek的出现,让自然语言大模型进入类似传统卷积神经网络“CV Resnet”的发展阶段,实现性能和性价比双轮普及。它开源全栈技术链,公开技术细节和算法训练模式,使得行业用户能够基于此打造自己的行业大模型。这种开源与创新的模式,激发了基础模型创新、应用创新和全民普及。国际AI头部公司纷纷加大算力投资,众多企业接入DeepSeek探索应用,To C用户也呈现爆炸式增长。

2

算力需求变革:多维度驱动增长

指数级增长

随着大模型结构和算力结构的改变,美国大厂持续加大算力投资,如“星际之门”计划未来四年投资5000亿美金打造人工智能基础设施底座。在模型发展的两条路径——卷Scaling提升参数量和后训练打造行业模型的推动下,影响模型能力的因素不断变化,也使得算力需求呈指数级增长。
从参数量维度来看,DeepSeek公布了6711亿参数,GPT5预计今年发布,参数将达18万亿,模型参数量的大幅增长对算力提出了更高要求。数据量维度,模型正从单模态走向多模态,多模态模型对数据生成和需求呈海量增长。以阶跃发布的Step-Video、Step-Audio和千问的多模态模型为例,数据量的增长意味着需要更强大的算力来处理和分析。序列长度方面,传统日常对话训练长度较短,但在科研和企业领域,如解析论文、理解视频,需要更长的序列长度,这同样增加了对算力的需求。

3

昇腾AI全栈解决方案:从算力到应用的深度赋能

全流程

面对不断增长的算力需求,昇腾AI在AI基础软硬件领域持续深耕,提供全栈解决方案。自2018年发布全栈人工智能解决方案后,陆续推出AI集群、AI框架、AI异构计算架构,并实现全流程应用软硬件的开源开放。
围绕CANN(Compute Architecture for Neural Networks),昇腾打造了异构计算架构和能力,提升了通讯库维度的计算效率,如在集群大AP并行、EP和PP并行方面表现出色。CVC语言的发布,让开发者可以采用类似英伟达CUDA C的开发范式,降低代码开发难度。昇思自研的人工智能算力框架,完成了业界90%的模型对接,与昇腾结合,有效提升模型训练和推理效率。
此外,昇腾还拥有全套工具链,包括MindStudio、CCAE等,用于模型迁移、性能优化、调优和精度调试,以及集群部署后的故障定位与排除。在集群部署方面,Atlas 900 AI集群通过超节点能力提升,实现分布式并行速率的提高,将所有服务器看作单台进行超大参数量模型训练,大幅缩短模型部署时间,提高算力利用率。
在可靠性设计上,昇腾实现了周计的长稳运行,在万卡集群下无故障运行,保障了模型训练和运行的稳定性。后训练维度,Atlas 800 AI单机服务器预置自动化脚本,支持更敏捷的行业模型开发。在推理维度,通过软硬协同方案,提升企业AI落地的经济性。

4

适配DeepSeek:昇腾AI的优势与创新

创新点

在DeepSeek模型的应用场景中,昇腾AI展现出显著优势。针对DeepSeek发布的众多路由专家和共享专家,以及服务器显存瓶颈问题,昇腾打造了大EP并行能力,使单卡平均支持的最大并发数提升3倍以上。同时,昇腾原生适配DeepSeek的MLA特性,对传统模型也有专业的显存内存优化方案,如Razor Attention压缩算法,提升推理效率。
启发式并行解码是昇腾的又一创新点,类似DeepSeek的MTP,通过自研的draft预测,实现单卡内存占用优化,提升整体推理和训练效率。昇腾AI从方案、性能和生态三个维度,成为加速DeepSeek创新落地的最优解。其全流程方案覆盖从预训练到推理的各个环节,与DeepSeek原生架构和开发特性全栈亲和,生态方面也完成了开源开放,适配Transformer架构下的所有依赖算子。
针对不同规模的企业,昇腾AI提供差异化服务。对于中小企业,联合业界打造推理一体机,提供定制化服务,满足企业从向量知识库构建到强化学习的全流程需求。对于大模型部署的不同阶段,昇腾AI也推出相应解决方案,帮助企业逐步探索和深化大模型应用。

5

生态构建:合作共赢,培育未来

积极与各方合作

在生态建设方面,昇腾AI积极与各方合作。与PyTorch、vLLM社区合作,华为加入PyTorch基金协会成为Premier会员,vLLM社区原生公布针对昇腾的project,使得昇腾基于这些社区的特性能够开箱即用。
在硬件开放上,联合整机伙伴发布多款产品,发展众多APN伙伴,打造全栈全场景硬件解决方案。软件开源方面,昇思MindSpore t服务大量客户,社区下载量可观。在使能伙伴方面,打造众多伙伴认证和解决方案认证,生态满足度在不同行业逐步提升。人才发展上,与高校紧密合作,新增多所高校合作,举办师资培训,培养大量专业人才。

结语

华为昇腾AI在大模型发展的进程中,通过深耕算力底座,提供多样化、场景化的解决方案,推动AI技术在千行万业的落地应用。从大模型发展趋势的把握,到算力需求的应对,再到全栈解决方案和生态构建,昇腾AI展现出强大的实力和创新能力。在未来,随着人工智能产业的持续发展,昇腾AI有望与更多合作伙伴携手,引领行业发展,为经济社会的智能化转型注入新动力。