算力突围:破解人工智能的基础设施困局

人工智能正在改变世界。然而,它需要大量的处理能力。需求每一百天就会翻一番。这推动了人工智能基础设施的投资热潮。

数据中心是未来人工智能创新的基础,其性能备受瞩目。由于涉及的规模和复杂性,确保数据中心的稳健性和可靠性是一项艰巨的任务。从芯片到GPU,再到服务器、网络组件和软件,基础设施的每一个元素都必须在网络层面进行单独和综合评估,以确保其无缝运行并消除任何薄弱环节。这给服务提供商带来了沉重的负担;然而,考虑到其中的利害关系,每一次效率的提高都意义重大。

在深入探讨测试的必要性之前,我们先来看看人工智能是如何给数据中心带来负担的。当前人工智能技术的迅猛发展,源于其应用所依赖的复杂算法与模型体系;与特定任务软件相比,它们消耗了更多的计算资源,因此也消耗了更多的能源。这是因为训练支持生成式人工智能的大语言模型(LLM)需要庞大的计算资源。而且,随着人工智能解决方案变得越来越精细和复杂,对更多处理资源和数据存储的需求并没有缓解的迹象。

例如,Sam Altman最近声称,由于公司“缺少GPU”,OpenAI最新模型的推广速度放缓。更重要的是,高盛预测,到2030年,人工智能将推动数据中心电力增长165%。这使得基础设施成为业界关注的焦点,因为业界正在寻找各种方法来创建一个能够支持未来迭代的技术环境。

前方道路上的坑洼

人工智能数据中心需要满足和管理对计算资源前所未有的需求;这些集群必须高效地支持智能时代,并提供必要的计算、内存和网络性能。测试在帮助克服挑战方面具有举足轻重的作用。要验证、优化和提高人工智能数据中心的性能,需要能够再现人工智能工作负载的复杂性和规模的系统级仿真器。随着基础设施的发展,系统级评估对于确保性能的稳健性和可靠性至关重要。

●规模:数据中心运营的各个方面都必须增长,包括电力、冷却、基础设施、存储和带宽。实现这一目标的一个关键方面是解决分布式计算环境中的延迟问题。人工智能集群(在GPU上分配任务)很容易因尾部延迟(系统最慢组件的滞后时间)而出现性能瓶颈。有效的扩展需要通过工作负载均衡来检测并尽量减少这种情况。

然而,仅仅符合标准是不够的,还必须对组件的性能进行评估,看它是如何处理网络协议数据和前向纠错的。例如,符合标准的收发器可能会因为没有在协议/网络层进行适当测试而失效。

测试可帮助服务商识别系统效率低下的问题,优化资源分配,并确保系统在所有节点上都能保持高性能。通过微调,数据中心可以在发展过程中提高效率,改善运营和资源利用率。

●专用硬件:人工智能专用硬件对于提供更多计算资源至关重要。例如,NVIDIA的最新超级芯片将性能提高了30倍,同时能耗降低了25倍。不仅是芯片,人工智能要求所有组件全面提速——从互连架构、内存模块、网络推理卡到交换机,均需提升运行速度,同时能效要求也需同步提升。

然而,这些技术进步需要超越合规性测试的严格评估,以验证峰值负载下的性能表现。系统级验证对确保设备在实际运行环境中稳定可靠至关重要。压力测试可确保人工智能设备的性能,而互连架构与网络结构的优化(通过网络验证)能避免瓶颈;内存与存储评估则保障快速数据访问。通过整合全方位测试,服务提供商可实现高效扩展。

●智能工作负载:要满足计算需求,就必须采用分解式架构,以便动态分配资源。测试可以验证智能管理,并应结合仿真技术,对网络结构以及动态资源分配和自动缩放进行基准测试。

要确保网络性能,就必须使用真实世界模型进行压力测试、制定基准并找出尾部延迟,所有这些都能改善工作负载分配。这使服务商能够实现性能目标,同时根据当前和预测的需求动态管理资源。在堆栈中添加先进的软件对于最大限度地提高性能至关重要。

可靠性是关键

人工智能模型将继续推动更多计算资源的指数级增长,这也推动了基础设施现代化的军备竞赛。然而,要想让高盛的预测成为现实,就必须在组件和系统层面进行严格评估,以发现效率低下的问题,确保数据中心的每个方面都稳健、可靠,并在必要的规模上进行优化。

【本文作者Marie Hattar,是德科技高级副总裁Marie Hattar】