人工智能電老虎,14個地球的資源才夠消耗;儲能,光伏、核能要火

海澤鈞 2024-03-11 16:14:01

人工智能這塊兒發展那可是嗖嗖滴快,不過它帶來的一個問題咱也不能忽視——那就是能源。現在這人工智能越整越高級,用的電那是噌噌往上漲,把咱現有的電力系統都壓得夠嗆。

就拿那個OpenAI家的ChatGPT來說吧,一天就能造掉超過50萬千瓦時的電,就爲了給那約摸兩億個用戶的請求忙活,這電耗抵得上美國一般人家用電的1.7萬多倍!要是生成式AI再這麽廣泛推廣開去,電費賬單估計能嚇人一跳。

老黃仁勳在斯坦福大學那講話說得明白,“AI走到最後還得靠光伏和儲能扛大旗!光琢磨著怎麽提高運算能力不行,照這麽搞下去,光計算機就得耗掉14個地球的能量。以後的超級AI啊,那簡直就是個填不滿的電老虎窩。”

OpenAI的老總薩姆·奧爾特曼也發話了,說下一輪的生成型人工智能系統耗電量絕對是要超乎想象,到時候能源系統怕是接不住招。

馬斯克那邊也多次提到,這技術革命加上AI的發展,對能源的需求眼瞅著就要翻天覆地,特別是那些數據中心、大規模計算和智能電網這些地方,對電力的壓力大得不是一星半點兒。

周鴻祎那頭呢,也說了不止一次,人工智能最頭疼的就是能源問題,這是阻礙它長遠發展的老大難。

Huggingface 自家的 BLOOM 大模型,有 1760 億參數,光是前期訓練它,就得花掉 43.3 萬度電,我換算了下,相當于國內 117 個家庭一年用掉的電量。

和它參數量相當的 GPT-3 ,耗電量就更不受控制,同樣是前期訓練,就要用掉128.7 萬度電,足足是前者的三倍。

甚至有人做過這樣一個類比, OpenAI 每訓練一次,就相當于 3000 輛特斯拉同時跑 32 公裏。。。

這還只是 AI 前期訓練用的電,在後期使用過程中累積的耗電量才是大頭。一般來說,訓練就是不斷調整參數、重複訓練,最後得到一個使用體驗最好的模型,整個過程是有限度的。後期的推理過程就不一樣了,比如我們用 ChatGPT ,每問一次問題都相當于是一次推理請求。現在 ChatGPT 的月活用戶早已經破億,它每天推理的頻次的飙升可想而知。更具體一點,拿自動駕駛來說,前期訓練花費的能耗成本就只有兩三成,剩下的七八成都是後期的推理消耗的。

《晚點 LatePost 》之前也拿 ChatGPT 做了這麽一個測算,按日均最高訪問量 2.7 億次來計算,假設每個人每次訪問會問五個問題,一整個月下來光是推理消耗的電量就是 1872 萬度。

總的來講, AI 這幾年來消耗的電力正在以指數級別增長,然而現在全球發電已經差不多已經趨于平緩。

照這個態勢發展下去,估計再過幾十年,光是 AI 的耗電量,就足以導致全球用電荒了。。。

來自 AMD ,紅色表示 AI 能耗,綠色表示現有能源

而之所以這麽耗電,一方面和近幾年來 AI 圈子內部搞起的軍備競賽不無關系。

國外在 OpenAI 之後,谷歌、 Meta 自家大模型的研發叠代也沒停過。

國內卷得就更厲害,百度的文心一言、阿裏的通義千問、騰訊的混元等等等等,參數一個賽一個高,這還只是大廠們的賽道,一些大模型初創企業更是海了去了。

另一方面, AI 用掉這麽多電,和它背後數據中心不無關系。

在數據中心,用電最多的地方就是 AI 服務器,因爲要有大規模的計算,普通的服務器根本就不夠用,還得用專屬的 AI 服務器。

然鵝 AI 服務器,光是功率就比普通服務器高出了六七倍,普通服務器一般只需要兩個 800W~1200W 的電源, AI 服務器,則要 4 顆 1800W 的高功率電源。

emmm 這不耗電都說不過去。。。

AI 的耗電,當然卷大模型的廠商比我們清楚得多,畢竟在他們那裏可是真金白銀的電費嘩嘩往外流。。。

所以在解決 AI 能耗的問題上,業內也是使出了渾身解數。

第一個辦法是想辦法提高 AI 芯片性能,性能上去了,耗電自然而然也就下去了。

另外一個辦法就簡單粗暴了,既然耗電多導致電費高,那找個更便宜的能源不就行了。

就比如國內目前就在搞 “ 東數西算 ” 的工程,在西部清潔能源豐富的地區建立數據中心,用來處理東部的數據。

並且東部地區數據中心密集,工商業的平均電價大概在 0.676 元 / 度,而西部地區平均電價在 0.541 元 / 度,錢不就這麽省下來了麽。

總結起來就是一句話,人工智能要想真正跑到終點,能源自給自足那是關鍵。所以啊,早點兒在能源這盤棋上下功夫,那才是在掌控未來的科技命脈。太陽能、儲能還有核聚變這些清潔又高效的能源技術,那都是給人工智能解渴的救命水。另外,提高能源使用效率,別亂糟蹋電,這也是解決問題的一個重要法子。

像 OpenAI 和微軟都先後投資了核能發電,不過不是傳統的核裂變發電方式,而是還在實驗室階段的核聚變。早在 2015 年, OpenAI CEO 奧特曼就對核聚變發電感興趣了,向一家核聚變初創企業 Helion 投資了 950 萬美金, 2021 年,又給它豪擲了 3.75 億美元。

緊接著在今年 5 月份,在核聚變發電站還沒著落的時候,微軟就和 Helion 簽訂了購電協議,說要在 2030 年前實現負碳目標。

世超倒真有點好奇,這個 Helion 到底有什麽魔力,在八字還沒一撇的時候,讓 OpenAI 和微軟先後都在它身上下這麽大的注。

不過這事吧,從它給微軟的的承諾中就能窺探出一二。Helion 在那份購電協議中表示, 2028 年前上線的核聚變裝置,在一年內會把發電功率提升到 50 兆瓦以上。什麽概念?相當于撐起 40000 戶家庭的供電。更重要的是,買核聚變發出來的電,還賊拉便宜,折合成人民幣相當于 7 分錢一度電,這誘惑誰擋得住啊。微軟也沒把所有雞蛋放在一個籃子裏,在下注核聚變發電的同時,他還看好了近幾年發展起來的小型核反應堆( SMR )。不久前,微軟發了個招聘通知,說要找個 “ 核技術首席項目經理 ” ,來管SMR 這塊的工作。

和傳統核電的大型反應堆比,理論上 SMR 這玩意兒體積更小,甚至可以在工廠裏批量生産。發電功率也是傳統反應堆的三倍,並且 SMR 也不用擔心損壞時釋放放射性元素,因爲它能在第一時間自動關閉系統。同時 SMR 也更省錢,平均每 1000 度電下來就能省將近 100 美元。。。

當然,這些東西目前還是八字沒那一撇, AI 耗電猛的現狀,短時間內也很難會得到改變。各種核聚變項目,世超也不好說它們到底能不能成。但 AI 的發展,說不定會給核能來一記大助攻。

再說到咱國內的AIGC(人工智能生成內容)市場,那可是熱火朝天,資本家們都搶著投。雖然多數投資者還在邊兒上瞅著,但到了2023年融資規模肯定要往上躥一大截。等底層的大模型全都放開,商業價值一驗明正身,估摸著2024年這人工智能和大數據産業的融資能來個指數級的增長,投資範圍會覆蓋全鏈條。

不過呐,這中國的AIGC市場還沒形成啥壟斷局面,競爭那叫一個激烈。按人工智能專利數掰扯,截止到2023年5月,排在前頭的四家公司市場份額也就剛摸到20%左右,前八名加一起也就占了大概25%,市場集中度那是真不高。爲啥呢?一是這AI技術更新太快,誰也不敢說自己能一直領先;二是這行細分領域太多,大部分還都在起步階段,發展空間大得沒邊兒。

再說這大型虛擬世界跟人工智能的關系,那真是密不可分。虛擬世界的建設靠著遊戲引擎、3D技術,再加上人工智能和大數據的支持,能給AI創造一個既安全、可靠又省錢省事、反複試驗的絕佳環境。將來啊,大型虛擬世界絕對是人工智能和大數據産業發展的重要舞台。

至于英偉達這公司,那在人工智能界可是舉足輕重的角色,它的産品給那些大廠比如亞馬遜、Meta、微軟他們提供了訓練生成式AI所需的強大算力。黃仁勳大佬說了,咱們現在已經跨入生成式AI的新紀元了。

Numenta公司的蘇布泰·艾哈邁德也感歎,這一年變化忒快,ChatGPT一出世,人工智能一下就成了焦點,但這還只是個開頭。他們跟那些實際應用LLM模型的公司合作發現,未來想要消除人工智能應用和炒作之間的距離,得有簡單好用、容易擴展、經濟實惠的方案,而且能讓公司牢牢把握住自己的數據和模型。

信達證券的研究報告也提到了,生成式AI這玩意兒啊,能大大推動影視産業的各個環節,像劇本創作、特效制作、視頻剪輯什麽的都能用上。短期內,AI雖還沒達到能全程包辦影視作品的程度,但它妥妥的是幫影視行業降低成本、提高效率的好助手;長期看,隨著AI+視頻技術繼續升級,類似Pika、Runway這類文轉視頻産品的叠代,影視創作者的工作效率那將會大大提高。總之,無論是數據還是實踐,都顯示人工智能和能源、影視等多個領域的深度融合正在發生深刻變革。

甯德時代作爲中國乃至全球領先的電池制造商,在儲能領域具備深厚的技術積累和産能優勢。面對AI産業對儲能的巨大需求,甯德時代和其他類似的中國企業迎來了曆史性的發展機遇,它們可以通過研發更高能量密度、更長壽命、更快充放電速度的電池技術,以及拓展包括但不限于液流電池、固態電池在內的多元儲能解決方案,來滿足不斷增長的市場需求。

同時,在全球範圍內,綠色燃料、儲能設施、固態電池、風能以及其他各種新能源産業,在政策引導和技術進步的雙重驅動下,不僅有利于環境保護和碳排放目標的實現,也將迎來一輪新的發展高潮和修複期,這對于産業鏈上下遊的企業都是一個戰略性的窗口期,可以預見這些領域在未來幾年內會有顯著的增長和創新突破。

0 阅读:43

海澤鈞

簡介:你能在浪費時間中獲得樂趣,就不是浪費時間。