有数据显示,OpenAI在训练大语言模型 GPT-4的过程中,完成一次训练需要约三个月,需要使用大约 25000 块英伟达 A100 GPU卡,一次训练所需电能可以将大约 200 万立方米的冰水 —— 大概是 1000 个奥运会标准游泳池水量 —— 加热到沸腾。其训练 GPT-3 模型耗电量约为 1.287 吉瓦时,这相当于 120 个美国家庭一年的用电量。
半导体产业分析机构 SemiAnalysis 预测,到 2030 年人工智能将推动数据中心消耗全球 4.5% 的能源。美银美林股票策略师 Thomas (T.J.) Thornton 研报预计,到 2030 年,全球数据中心的电力需求可能达到 126 – 152GW,在此期间新增大约 250 太瓦时(TWh)的电力需求,相当于 2030 年美国总电力需求的 8%。

为应对大模型应用所带来的快速能源消耗,液冷散热技术备受推崇,有望引发新的市场热点。
以下为视频消息: