Digital Information World發(fā)布的報(bào)告顯示,數(shù)據(jù)中心為訓(xùn)練AI模型產(chǎn)生的能耗是常規(guī)云工作的三倍,預(yù)計(jì)到2030年,美國(guó)數(shù)據(jù)中心的電力需求將以每年約10%的速度增長(zhǎng)。
而訓(xùn)練模型,將比傳統(tǒng)數(shù)據(jù)中心活動(dòng)消耗更多電力,對(duì)電力的需求更高。以訓(xùn)練GPT-3大型語(yǔ)言模型為例,需消耗接近1,300兆瓦時(shí)的電力,這大約相當(dāng)于130個(gè)美國(guó)家庭1年的用電量,而這僅僅是訓(xùn)練AI模型的前期電力,僅占模型實(shí)際使用時(shí)所消耗電力的40%。
據(jù)報(bào)道,2023年1月,OpenAI僅一個(gè)月已耗用可能等同17.5萬(wàn)個(gè)丹麥家庭的全年用電量。谷歌AI每年耗電量達(dá)2.3太瓦時(shí),相當(dāng)于美國(guó)亞特蘭大州所有家庭1年的用電量。
阿姆斯特丹自由大學(xué)博士生Alex de Vries推算認(rèn)為,到2027年,人工智能行業(yè)每年的電量消耗可能在85到134太瓦時(shí)之間。這幾乎相當(dāng)于荷蘭一個(gè)國(guó)家年度電力需求,這是個(gè)相當(dāng)可觀的數(shù)字。
國(guó)際能源署(IEA)最近的一份報(bào)告也給出了類似的結(jié)論,指出由于人工智能和加密貨幣的需求,數(shù)據(jù)中心的用電量將在不久的將來(lái)大幅增加。該機(jī)構(gòu)表示,2022年數(shù)據(jù)中心的能源使用量約為460太瓦時(shí),到2026年可能會(huì)增加到620至1,050太瓦時(shí)之間,分別相當(dāng)于瑞典或德國(guó)的能源需求。
隨著人工智能產(chǎn)業(yè)的發(fā)展,電力消耗可能會(huì)更大。同時(shí),隨著人工智能的盈利,其研發(fā)公司對(duì)大模型訓(xùn)練的細(xì)節(jié)信息——什么樣的硬件,運(yùn)行多長(zhǎng)時(shí)間等,越發(fā)保密。
人工智能公司Hugging Face的研究員Sasha Luccioni表示,對(duì)于ChatGPT,我們不知道它有多大,不知道基礎(chǔ)模型有多少參數(shù),也不知道它在哪里運(yùn)行......研發(fā)公司的保密行為可能出于行業(yè)競(jìng)爭(zhēng)考慮,也可能是為了轉(zhuǎn)移公眾的“批評(píng)”。
一些參與人工智能的公司聲稱,人工智能技術(shù)本身可以幫助解決高電耗問(wèn)題。代表Microsoft的發(fā)言人表示,人工智能“將成為推進(jìn)可持續(xù)發(fā)展解決方案的有力工具”,并強(qiáng)調(diào)Microsoft正在努力實(shí)現(xiàn)“到2030年實(shí)現(xiàn)負(fù)碳、正水和零浪費(fèi)的可持續(xù)發(fā)展目標(biāo)”。
但是一家公司的目標(biāo)無(wú)法涵蓋整個(gè)行業(yè)的全部需求,可能還需要其他方法。Luccioni建議行業(yè)為AI模型引入能源之星評(píng)級(jí),使消費(fèi)者能夠像比較電器一樣比較人工智能的能源效率。
人工智能帶來(lái)的種種創(chuàng)新功能,都是以處理性能和功耗方面的高昂成本為代價(jià),它并不是免費(fèi)的。