存储“超级周期”下,DRAM在AI时代的价值重估

当英伟达GPU作为AI算力核心被全球科技巨头斥巨资争抢时,一种芯片因其核心地位被视为GPU的“咽喉”——这就是DRAM内存芯片。

摩根士丹利近期指出,全球半导体行业正在进入一个新的“存储超级周期”。本轮超级周期由爆炸式的AI算力需求驱动,其中心是并非用于长期存储数据的NAND闪存等,而是用于AI计算高速数据处理的DRAM(动态随机存取存储器,也就是常说的“内存”),特别是其顶尖形态——HBM(高带宽内存)。

随着AI模型参数量突破万亿级别,行业正在达成共识:在AI时代,算力的上限不完全取决于GPU等逻辑芯片计算得有多快,而取决于作为数据输送管道的DRAM内存能以多快的速度“喂养”这些芯片。

算力提升的关键:打破“内存墙”

ChatGPT和Claude等生成式 AI模型的训练依赖于海量数据的并行处理。在这种高强度负载下,传统的内存架构已成为系统性能的短板,即所谓的“内存墙”,也就是DRAM内存的数据传输速度落后于GPU、CPU的计算速度,导致算力无法完全释放。

在此背景下HBM应运而生,通过将多个DRAM芯片垂直堆叠,并与GPU封装在一起,提供了数倍于传统内存的数据传输速度。目前,HBM已成为英伟达H100、H200等旗舰产品和即将推出的Blackwell架构芯片的标准配置。

业内人士认为,没有HBM,就没有这一轮AI大潮,它是计算系统的核心。这一转变正在重塑存储芯片行业的估值逻辑。HBM的关键地位和技术门槛,使得掌握DRAM技术的企业成为了AI价值链的战略中枢。

制造鸿沟:DRAM 与 NAND 的分道扬镳

尽管DRAM和NAND Flash均属于存储芯片,但在制造层面两者属于完全不同的方向,这使得“跨界”的可能性微乎其微。

NAND Flash的主要功能是数据存储,当前业界主要通过增加堆叠层数(如 232 层或更多)来提升存储容量等关键性能。

相比之下,DRAM是系统的短期记忆,直接与CPU、GPU进行交互,制造工艺侧重于极微观层面的电路精密度和电荷控制能力。

专业人士认为DRAM的制造工艺难度更接近 CPU等逻辑芯片,远高于 NAND。如果以NAND的堆叠层数来对标,那目前国内DRAM的生产工艺大概可换算为400+层的NAND水准。

这导致了两者的生产线几乎无法互通,一家NAND 工厂无法简单地转产DRAM,这涉及数年的工艺重新调试、数十亿美元的设备更换,在工艺上和经济上都是巨大的挑战。

HBM:DRAM 技术的集大成者

HBM的短缺进一步凸显了DRAM在AI算力中的“咽喉”地位。

HBM本质上是DRAM芯片的3D封装体。根据拆解分析,在HBM的物料清单中,DRAM 裸片的成本占比超过70%。这意味着HBM 的产能上限严格受限于高端DRAM的产能。

更为关键的是,HBM的制造良率遵循“乘法效应”。由于 HBM 通常涉及8层、12层乃至更高层数DRAM芯片的堆叠,任何一层芯片的微小缺陷都会导致整个堆栈报废,这直接对DRAM芯片的制造要求提升了几个数量级。

DRAM的极高技术难度、重资产投入使得行业的进入门槛极高。目前,全球主要的DRAM制造商包括SK海力士、三星、美光和中国的长鑫科技,长鑫科技也是中国唯一一家具备大规模量产DRAM能力的企业。

DRAM企业:超越商业价值的战略资源

AI驱动的需求激增正在加剧DRAM市场热度,然而热潮之下更需要理性分析分得市场一杯羹的可行性。

SEMI国际半导体协会分析指出,新建先进DRAM晶圆厂的资本支出通常在 150 亿至 200 亿美元之间,且需要18至24个月的建设及认证周期。此外,HBM并不是“单机游戏”,还需要经过DRAM厂商与GPU厂商长达数年的协同设计验证。

这意味着DRAM注定是“少数人的游戏”,无论是新进者或者是有一定积累的其它类型存储企业,进入DRAM领域不仅必须跨越巨大的技术鸿沟和资金壁垒,而且在缺乏DRAM核心知识产权和长期工艺积累的情况下进军HBM领域,极大可能最终面临巨额资金损失与资源浪费等局面。

随着AI军备竞赛的升级,存储芯片行业正在迎来巨大的市场机遇,尤其是DRAM企业已站在聚光灯下。在新的存储超级周期中,DRAM制造能力已不再仅仅是商业资产,而已成为决定算力分配权的关键战略资源。