AI 產業的高速發展推動運算能力需求激增,企業透過硬體升級或大規模 AI 集群建置來提升處理能力,但也陷入能源消耗的嚴峻挑戰。
根據 Futurum Group 半導體分析師王韋傑 (Ray Wang) 最新發布的數據,輝達每一代 AI 伺服器平台功耗,從 Ampere 到 Kyber 架構,八年來共暴增 100 倍。
王韋傑指出,功耗暴增根源在於每機架 GPU 數量增加,以及單一 GPU 熱設計功耗 (TDP) 提升;Hopper 架構每機架約 10KW,Blackwell 則提升至 120KW。
除 GPU 數量增加外,先進的 NVLink/NVSwitch 網路架構、新一代機架設計及高利用率等因素,也進一步導致超大規模資料中心能耗以驚人速度成長。
如今,大型科技公司紛紛參與「誰擁有更大規模 AI 機架」的競賽,衡量標準已從傳統的計算能力轉變為吉瓦(GW),像 OpenAI 和 Meta 等公司打算在未來幾年增加逾 10GW 的算力。
AI 超大規模企業消耗的 1GW 能源,足以供應約 100 萬美國家庭。
隨著大型科技公司紛紛建設大規模資料中心,單一資料中心的能耗已經相當於一個中等國家或是數個美國大州的用電量。
根據國際能源署 (IEA)2025 年研究報告《能源與 AI》估計,到 2030 年,AI 的能源消耗將翻倍,幾乎是電網成長速度的四倍。
新聞來源 (不包括新聞圖片): 鉅亨網