导读
2025年7月9日,在2025全球闪存峰会的CXL技术应用论坛上,阿里云基础设施高级技术专家黄涛分享了阿里云在CXL(Compute Express Link)技术领域的创新研发成果,并详细介绍了CXL池化技术在数据库场景中的应用现状。此次分享不仅展示了阿里云在CXL技术上的深厚积累,更为未来数据库架构的革新指明了方向。

1
CXL技术路线现状与未来规划
阿里云目前的产品基于CXL 2.0技术,但随着CXL 3.0协议的演进,公司正积极规划多代产品以逐步实现新协议的全部功能。CXL 3.0协议在可扩展性、缓存一致性以及互连架构方面带来了显著变化,阿里云计划通过分代产品逐步引入这些特性。
在系统池化架构的演进上,阿里云已在CXL 2.0阶段实现了内存及持久化内存的池化和共享,并打通了内存池系统管控和运维的链路。,包括对池化资源的管理故障处理以及RAS方案等。未来,随着CXL 3.0的引入,阿里云将规划在多级Switch场景下扩大资源池化规模,并引入更多类型的资源,最终走向基于CXL Fabric的可组合架构,支持更灵活的资源配比和更高效的数据流动。
2
磐久服务器
CXL内存池系统架构
阿里云磐久服务器推出的CXL内存池系统,是业界首个基于CXL Switch的内存池业务系统解决方案。该系统包含4台2U通用计算服务器、阿里云自研的CXL Switch Box以及内存节点(JBOM),通过CXL连接实现了高性能的内存池化系统。
系统采用三层拓扑架构:
在机架的上层部署了多台双路CPU服务器;
机柜的中层是包含两颗交换芯片以及一颗管理CPU的CXL Switch Box,其中每颗交换芯片的上行端口分别连接每台服务器的两个CPU Socket。同时Box内的管理CPU通过25G高速控制网络实现毫秒级资源调度。
机柜的下层是CXL内存节点(JBOM),最多支持插入32块阿里自研的Alimemory内存模组,该模组支持128GB和256GB两个规格,单箱容量最高达8TB(虽系统兼容512GB模组,但经验证128G/256G为TCO最佳选择)。CXL Switch Box和JBOM都配备了独立的BMC,经带外网络接入统一的带外管理系统,实现CXL内存池系统的管控运维。
基于RDMA的分布式方案存在的问题
在面对大客户对数据库容量和性能的高要求,阿里云PolarDB数据库采用了三层解耦架构,将计算和内存分层,并引入了分布式的内存池。在CXL技术应用之前,该架构依赖RDMA实现内存层与计算池和存储池的连接。但在超大规模数据库场景中,现有基于RDMA的分布式方案存在以下问题:
内存成本增加:双端Buffer Pool架构导致内存成本上升——计算节点需保留本地内存,同时额外部署远端内存池。
读写放大效应:RDMA不支持原生内存语义,导致16KB数据页即便仅访问少量字节(如512B),也需将整页从远端内存拷贝至本地内存,引发高达32倍的带宽浪费(16K/512B),致使一些场景下网络吞吐成为系统性能瓶颈。
故障恢复速度慢:故障恢复慢一直是数据库场景的一大挑战,尤其在需要通过redo log恢复数据页的情况下
缺乏缓存一致性:在多主架构下,所有DB节点都可以同时访问整个数据库所有的页。在这种情况下会频繁出现数据页从一个节点迁移到另一个节点的情况,产生了额外的网络带宽开销。
4
架构创新
基于CXL Switch的三层解耦内存层重构
随着CXL技术的引入,阿里云PolarDB数据库对三层解耦架构进行了全面改造,推出了业界首个基于CXL Switch的云数据库PolarCXLMem。该架构相比RDMA分布式内存层,业务端到端性能提升了2倍以上,同时实现了跨节点的缓存共享,彻底解决了读写放大以及数据拷贝的问题。
核心优势:CXL技术赋能的多维性能突破
1. 低延迟与高带宽:CXL在64B小粒度访问(如事务操作)至16K大粒度数据页访问的全场景下,延迟性能显著优于RDMA,且带宽优势为大粒度数据传输(如完整数据页读写)提供了更优支持。
2. CXL原生支持内存语义,一方面简化了编程模式,另一方面也避免了RDMA方案中数据需从远端通过RDMA网卡拷贝至本地缓存的额外开销。通过直接将数据库缓存页构建在CXL内存内,消除了IO延迟及数据搬移的开销。
3. 跨节点缓存一致性保障:针对多主场景,团队设计了跨主机缓存一致性方案(当前为软件方案,兼容未来CXL3.0硬件缓存一致性协议),通过集中式缓存管理模块协调各节点缓存页状态,解决了传统分布式架构中数据同步与一致性问题。
从理论到实践的显著提升
- 本地缓存迁移可行性验证:传统认知中数据库为延迟敏感业务,但实测表明,将本地页缓存全部迁移至CXL内存后,绝大多数业务场景性能仅下降5%以内(极端场景10%以内),验证了CXL内存替代本地缓存的可行性。基于此,PolarCXLMem彻底放弃了Tiered Memory分层架构,选择直接在CXL内存池构建数据页缓存系统。
- 读写放大与负载优化:CXL内存池的集中式缓存设计避免了传统分层架构中“仅访问部分数据却需拷贝整页”的读写放大问题,同时消除了数据来回拷贝的系统负载,显著降低整体带宽资源消耗。
- 故障恢复能力增强:CXL内存与计算节点采用独立供电与故障域设计,单节点故障时数据无需依赖本地缓存恢复(传统方案需从持久化介质重还原),故障恢复速度大幅提升(实测人为插入故障时,基于PolarCXLMem的故障恢复方案PolarRecv恢复速度远超传统方案)。
- 跨主机缓存一致性:通过高性能的软件缓存一致性协议设计,PolarCXLMem实现了DB节点和中心管理节点通过CXL共享内存共同管理和维护全局页缓存目录。基于CXL内存池的共享页缓存方案,大幅提升了多主架构的端到端性能。
- 多场景性能对比:
单点读场景:吞吐量达RDMA方案的3倍以上,带宽需求显著降低;
全页访问(range-select):吞吐量提升2倍,平均延迟降低50%;
多主场景:在共享数据百分比较低的场景表现优异(最大提升62%),即使在全共享和严重页冲突(锁系统瓶颈)的场景下,仍保持27%的性能优势(对比RDMA)。
结语:
阿里云在CXL技术领域的创新研发不仅为数据库场景带来了革新,更为未来计算架构的发展指明了方向。随着CXL技术的不断成熟和应用场景的拓展,阿里云将继续推动CXL技术的发展与应用,为全球用户提供更高效、更灵活、更可靠的云计算服务。
此次分享不仅展示了阿里云在CXL技术上的深厚积累和实践经验,更为行业内的技术创新和生态建设提供了有力支持。未来,阿里云将携手合作伙伴共同推动CXL技术的标准化和生态普及,开启高效计算的新时代。