AI 正在走向一場能源危機,讓科技巨頭們爭先恐后
這人工智能工業(yè)界正在爭先恐后地通過更好的冷卻系統(tǒng)、更高效的計算機芯片和更智能的編程來減少其巨大的能源消耗——與此同時,人工智能的使用在全球范圍內(nèi)呈爆炸式增長。
AI 完全依賴于數(shù)據(jù)中心,根據(jù)國際能源署.這是他們今天使用的兩倍。
美國咨詢公司麥肯錫 (McKinsey) 的專家描述了一場競相建設足夠的數(shù)據(jù)中心以跟上 AI 的快速增長,同時警告說,世界正走向電力短缺。
“有幾種方法可以解決這個問題,”密歇根大學計算機科學教授 Mosharaf Chowdhury 解釋說。
相關(guān):Google 轉(zhuǎn)向核反應堆為其人工智能提供動力
公司可以建立更多的能源供應——這需要時間,而人工智能巨頭已經(jīng)在全球范圍內(nèi)尋找——或者想辦法在相同的計算能力下消耗更少的能源。
Chowdhury 認為,從物理硬件到 AI 軟件本身,各個層面的“聰明”解決方案都可以應對挑戰(zhàn)。
例如,他的實驗室開發(fā)了算法,可以準確計算每個 AI 芯片需要多少電力,從而減少 20-30% 的能源使用。
“聰明”的解決方案
20 年前,運營數(shù)據(jù)中心(包括冷卻系統(tǒng)和其他基礎(chǔ)設施)所需的能源與運行服務器本身所需的能源相同。
如今,運營使用的能耗僅為服務器消耗量的 10%,咨詢公司 Arup 的 Gareth Williams 說。
這主要是通過這個專注于能源效率.
許多數(shù)據(jù)中心現(xiàn)在使用 AI 驅(qū)動的傳感器來控制特定區(qū)域的溫度,而不是均勻地冷卻整個建筑物。
這使他們能夠?qū)崟r優(yōu)化水和電的使用,麥肯錫的 Pankaj Sachdeva 表示。
對許多人來說,改變游戲規(guī)則的將是液體冷卻,它用直接在服務器中循環(huán)的冷卻劑取代了高能耗空調(diào)的轟鳴聲。
“所有大牌球員都在關(guān)注它,”威廉姆斯說。
這很重要,因為 Nvidia 等公司的現(xiàn)代 AI 芯片消耗的電力是二十年前服務器的 100 倍。
亞馬遜世界領(lǐng)先的云計算業(yè)務 AWS 上周表示,它已經(jīng)開發(fā)了自己的液體方法來冷卻其服務器中的 Nvidia GPU,從而避免了重建現(xiàn)有數(shù)據(jù)中心。
“根本沒有足夠的液體冷卻能力來支持我們的規(guī)模,”計算和機器學習AWS 的服務,在 YouTube 視頻中說。
美國 vs 中國
對于麥肯錫的 Sachdeva 來說,一個令人放心的因素是,每一代新一代計算機芯片都比上一代更節(jié)能。
普渡大學 Yi Ding 的研究表明,AI 芯片可以在不損失性能的情況下使用更長時間。
丁俊暉補充說,“但很難說服半導體公司減少收入”,鼓勵客戶更長時間地使用同一設備。
然而,即使更高的芯片效率和能耗可能會使 AI 更便宜,也不會降低總能耗。
“能源消耗將繼續(xù)上升,”丁先生預測道,盡管人們盡一切努力限制能源消耗?!暗苍S不會那么快。”
在美國,能源現(xiàn)在被視為保持該國在 AI 方面優(yōu)于中國競爭優(yōu)勢的關(guān)鍵。
今年 1 月,中國初創(chuàng)公司 DeepSeek 推出了一款 AI 模型,盡管使用的芯片功能較弱,但性能與美國頂級系統(tǒng)相當,進而能耗也較低。
DeepSeek 的工程師通過更精確地對 GPU 進行編程并跳過以前被認為必不可少的能源密集型訓練步驟來實現(xiàn)這一目標。
中國在可用能源(包括可再生能源和核能)方面也有望領(lǐng)先于美國。
?法新社
湖北農(nóng)機化
農(nóng)業(yè)基礎(chǔ)科學 - 省級期刊
現(xiàn)代食品
合作期刊 - 省級期刊
數(shù)理化解題研究
合作期刊 - 省級期刊
中國高新科技
合作期刊 - 國家級期刊
科學技術(shù)創(chuàng)新(曾用刊名:黑龍江科技信息)
合作期刊 - 省級期刊
種子世界
農(nóng)作物 - 省級期刊
科學與信息化
合作期刊 - 省級期刊
商業(yè)文化
合作期刊 - 國家級期刊
機械管理開發(fā)
合作期刊 - 省級期刊
科技創(chuàng)新與應用
合作期刊 - 省級期刊