訂閱
糾錯
加入自媒體

“大口吃電”的人工智能

眾所周知,機器學(xué)習(xí)需要消耗大量的能源。算力是人工智能世界發(fā)展的基礎(chǔ),而算力的瓶頸歸根到底是電力,那些訓(xùn)練聊天機器人、為文本生成視頻提供動力的人工智能模型,幾乎以每小時兆瓦為單位,產(chǎn)生巨額的服務(wù)器用電賬單。

Digital Information World發(fā)布的報告顯示,數(shù)據(jù)中心為訓(xùn)練AI模型產(chǎn)生的能耗是常規(guī)云工作的三倍,預(yù)計到2030年,美國數(shù)據(jù)中心的電力需求將以每年約10%的速度增長。

而訓(xùn)練模型,將比傳統(tǒng)數(shù)據(jù)中心活動消耗更多電力,對電力的需求更高。以訓(xùn)練GPT-3大型語言模型為例,需消耗接近1,300兆瓦時的電力,這大約相當(dāng)于130個美國家庭1年的用電量,而這僅僅是訓(xùn)練AI模型的前期電力,僅占模型實際使用時所消耗電力的40%。

據(jù)報道,2023年1月,OpenAI僅一個月已耗用可能等同17.5萬個丹麥家庭的全年用電量。谷歌AI每年耗電量達(dá)2.3太瓦時,相當(dāng)于美國亞特蘭大州所有家庭1年的用電量。

阿姆斯特丹自由大學(xué)博士生Alex de Vries推算認(rèn)為,到2027年,人工智能行業(yè)每年的電量消耗可能在85到134太瓦時之間。這幾乎相當(dāng)于荷蘭一個國家年度電力需求,這是個相當(dāng)可觀的數(shù)字。

國際能源署(IEA)最近的一份報告也給出了類似的結(jié)論,指出由于人工智能和加密貨幣的需求,數(shù)據(jù)中心的用電量將在不久的將來大幅增加。該機構(gòu)表示,2022年數(shù)據(jù)中心的能源使用量約為460太瓦時,到2026年可能會增加到620至1,050太瓦時之間,分別相當(dāng)于瑞典或德國的能源需求。

隨著人工智能產(chǎn)業(yè)的發(fā)展,電力消耗可能會更大。同時,隨著人工智能的盈利,其研發(fā)公司對大模型訓(xùn)練的細(xì)節(jié)信息——什么樣的硬件,運行多長時間等,越發(fā)保密。

人工智能公司Hugging Face的研究員Sasha Luccioni表示,對于ChatGPT,我們不知道它有多大,不知道基礎(chǔ)模型有多少參數(shù),也不知道它在哪里運行......研發(fā)公司的保密行為可能出于行業(yè)競爭考慮,也可能是為了轉(zhuǎn)移公眾的“批評”。

一些參與人工智能的公司聲稱,人工智能技術(shù)本身可以幫助解決高電耗問題。代表Microsoft的發(fā)言人表示,人工智能“將成為推進(jìn)可持續(xù)發(fā)展解決方案的有力工具”,并強調(diào)Microsoft正在努力實現(xiàn)“到2030年實現(xiàn)負(fù)碳、正水和零浪費的可持續(xù)發(fā)展目標(biāo)”。

但是一家公司的目標(biāo)無法涵蓋整個行業(yè)的全部需求,可能還需要其他方法。Luccioni建議行業(yè)為AI模型引入能源之星評級,使消費者能夠像比較電器一樣比較人工智能的能源效率。

人工智能帶來的種種創(chuàng)新功能,都是以處理性能和功耗方面的高昂成本為代價,它并不是免費的。

編輯丨楊   朔

排版丨鄭 莉

來源丨The Verge

圖片來源丨千圖網(wǎng)

       原文標(biāo)題 : “大口吃電”的人工智能

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號