2030年全球AI數據中心電力需求量將大漲160%

芯智訊 2024-05-07 20:09:20

近日,高盛發布了一項最新的研究報告稱,隨著人工智能的快速發展,對于算力的需求也是越來越高,由此也帶來了對于電力需求的大增,預計到2030年,全球AI數據中心對于電力的需求將增長160%,屆時美國整體數據中心對于電力的需求量,在美國總電力需求當中的占比將從2022年的3%增加至8%,需要額外500億美元的資本支出。

2030年全球AI數據中心對于電力的需求將增長160%

高盛稱,2022年美國來自數據中心的電力需求在總的電力需求當中的份額爲3%,但預計到2030年將增加至8%,電力需求年複合增長率爲2.4%。相比之下,過去20年數據中心發電量年複合增率不到0.5%,過去10年發電量年增率爲0%。

高盛表示,隨著數據中心的持續擴張,電網也必須擴張,能源來源必須多樣化,以充分利用天然氣、太陽能和核能,基礎設施也必須擴展以支持不斷增長的電網。

以下是高盛的圖表,展示了過去和未來美國國內外數據中心在使用和不使用人工智能的情況下對電力的需求增加。

報告指出,預計未來五年電力需求將以本世紀初以來從未有過的速度增長。高盛也估計未來七年數據中心電力使用的三種場景,在這三種情況下,電力需求預計都會上升。

下圖展示了未來七年(2023-2030年)數據中心用電的三種情況。在樂觀的情況下,電力消耗不會受到限制,前提是相關電力公司的技術支出是充足的。

美國電力供應短期內仍將依賴天然氣

此前外媒報道也顯示,OpenAI的生成式AI聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力。如果生成式AI被進一步廣泛采用,未來耗電量可能會更多。

根據英偉達的資料顯示,H100 GPU的峰值功耗爲700瓦。那麽10萬張H100 GPU的峰值功耗將高達7000萬瓦,如果在算上這些GPU所需要配套的其他部件及散熱所需的功耗,整體的功耗可能將達到1億瓦。

根據市場調研機構Factorial Funds的報告顯示,OpenAI的文字生成視頻模型Sora一個月內使用4,200至10,500片H100 GPU,其中單個H100能在約12分鍾內生成一個一分鍾視頻,或者每小時約5個一分鍾視頻。而在Sora高峰時期需要72萬個H100 GPU。也就是這麽龐大的一個AI數據中心每小時的能耗將會超過7.2億瓦時。

荷蘭國家銀行數據科學家Alex de Vries在一篇論文中估計,到2027年,整個人工智能行業每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發電量。

富國銀行近期也發布了評價未來電力需求的報告指出,隨著AI興起、半導體和電池制造的擴張,以及車輛電氣化,電力公司必須確保能源安全,美國電力成長十年持平後,預計到2030年美國整體電力需求將增加20%,僅AI數據中心就預計將爲美國增加約323太瓦時的電力需求。僅美國的AI的電力需求預計將達到紐約市目前48太瓦時的年用電量的7倍以上。

而根據資料顯示,2020年美國電力比較充沛的加州電網總發電量達19萬GWh,換算下來,每個小時的發電量約爲21.7GWh,雖然這個量不小,但是也是不夠用。在2020年8月,受熱浪影響,加州在周末還實施了輪流停電措施。如果一下子要增加1億瓦時能耗的AI數據中心,顯然這對于電力系統將會帶來巨大的負擔。

數據中心電源管理公司總裁Lancium稱,至少在AI方面,電力就是一切。科技業變革對電力的需求如此龐大,相較1 GW(10億瓦=100萬千瓦)的電力足以滿足100萬人的家庭需求,100 GW的電力足以滿足全球10%的照明需求,反應“我們正在見證曆史上對AI的最大規模資本注入。”

美國的電力供應短期內仍將依賴天然氣,美國管線營運商認爲,在可預見的未來,大量新的核電容量不會上線,建設將可再生能源連接到電網的輸電線需要數年時間,因此天然氣必須在未來幾年發揮重要作用。

高盛估計,美國將需要500億美元的資本支出來滿足日益增長的電力需求,其中60%用于天然氣,40%用于可再生能源。

最近微軟簽署價值100億美元的綠色能源協議,是至今最大一筆購買再生能源的企業協議,將啓動全世界再生能源建設熱潮。分析師認爲,希望利用AI熱潮的人需要弄清楚電力在哪裏,如何獲得電力,以及在哪裏可以最快速地建立數據中心來提供AI所需的電力,同時控制成本。

編輯:芯智訊-浪客劍

0 阅读:9

芯智訊

簡介:專注于手機、芯片、智能硬件等相關領域的行業資訊報道。