当 AI 大模型训练迈入千卡甚至 EB 级算力需求,传统计算机体系的 “通信瓶颈” 正从隐性问题变为致命短板 ——PCIe 总线的带宽延迟已追不上芯片算力的增长速度,一场围绕互联协议的重构革命悄然打响。计算体系架构将向何处去?一起聊聊NVLink、灵衢(U8)、Infinitiy Fabric这些计算体系重构的产物。
在不断激增的算力需求下,为何英伟达执着于用 NVLink 重构 GPU 互联,甚至突破 1.8TB/s 的双向带宽?这种基于点对点连接的协议革新,是否正在打破冯诺依曼体系的固有边界?而当UB 2.0 以 “全面开源” 姿态登场,宣称能替代 PCIe、NVLink 等多类协议时,它真的戳中了闭源协议的生态软肋吗?
更值得深思的是,HBM 内存凭高带宽成为 GPU 的 “黄金搭档”,为何 CPU 却始终与其 “绝缘”?是内存控制器位宽的限制,还是架构设计的取舍?另一边,Intel 全力推动的 CXL 协议,在吸收 OpenCAPI、Gen-Z 技术后快速崛起,它在 CPU 互联领域的强势布局,背后藏着怎样的产业战略?就连 UALink 与 UE 这两类看似功能重叠的协议,也有人说它们分别瞄准柜内 Scale Up 与数据中心 Scale Out 场景 —— 这场看似 “重复造轮子” 的竞争,实则是不同应用场景下的必然选择?
从协议技术细节到生态博弈,从当下架构瓶颈到未来方向预判,这场对话将跳出参数对比,拆解计算体系重构的核心逻辑:当 NVLink 的生态成熟度遇上 UB 2.0 的成本优势,谁能真正主导下一代计算架构的走向?本期特邀嘉宾:上海交通大学计算机学院 吴晨涛教授。欢迎您预约直播,互动交流。
