#ChatGPT日耗電超50萬度#上熱搜,AI人工智能以及大模型高耗能這個事兒又開說。
據(jù)外媒報道,爆火的聊天機器人ChatGPT“每天可能要消耗超過50萬千瓦時的電力,以響應(yīng)用戶約2億個請求”。什么概念呢?就是ChatGPT每天的用電量差不多等同于美國家庭用電量的1.7萬倍。
當(dāng)然,這已經(jīng)不是第一次提到AI人工智能以及大模型“吃電”這個事情了。AI和大模型的基礎(chǔ)都是算力,算力的每一次提升都意味著呈幾何數(shù)的能耗提升,不僅是ChatGPT以及其代表的OpenAI,微軟、蘋果、谷歌、百度、華為、科大訊飛、阿里、騰訊、京東等等企業(yè)都無法回避這個問題。
美國信息技術(shù)與創(chuàng)新基金會(ITIF)發(fā)布的報告《重新審視對人工智能能耗的擔(dān)憂》中就指出,不同的AI模型也有不同的能耗成本,在特定模型中,參數(shù)數(shù)量越多,使用AI模型所需的能耗通常越高。同時,AI能耗受到經(jīng)濟因素限制,性能改進速度將隨時間下降。
報告還提到,已有一些研究試圖量化AI系統(tǒng)當(dāng)前和未來的能源需求和碳排放,不過一些初步估算陷入了與早期估算數(shù)字技術(shù)能源使用相同的陷阱,產(chǎn)生了誤導(dǎo)性估算。
對AI人工智能以及大模型能耗和碳排放的測算是一項復(fù)雜且龐大的工程,并受到很多因素的影響,不過可以確認(rèn)的一點是,其能耗大是事實。
斯坦福大學(xué)人工智能技術(shù)研究室(HAI)公布的《2023年人工智能指數(shù)報告》中明確指出,GPT-3是當(dāng)前大模型中有據(jù)可依的第一大“電老虎”,光是訓(xùn)練GPT-3,就消耗了128.7萬千瓦時電量,產(chǎn)生了550噸碳排放,相當(dāng)于數(shù)百輛汽車一整年的排放量。
高耗能、高排放是行業(yè)特性,但是用什么能源可以選擇,還可以在制冷系統(tǒng)上下功夫。
綠電+儲能是目前科技公司以及AI公司的常規(guī)選擇,或者也可以說是必然選擇。6部門聯(lián)合發(fā)布的《算力基礎(chǔ)設(shè)施高質(zhì)量發(fā)展行動計劃》就提出“算力+能源”的組合,要求實現(xiàn)源網(wǎng)荷互動、多能協(xié)同互補及用能需求智能調(diào)控。
計劃指出,隨著人工智能的普及應(yīng)用以及算法模型參數(shù)量和復(fù)雜度不斷提升,數(shù)據(jù)中心數(shù)據(jù)吞吐量、計算量不斷增長,用能需求也隨之增長。未來,推動“算力+能源”融合發(fā)展重在“融合”,推動各類能源互聯(lián)互通、互濟互動,支撐
新能源發(fā)電、新型儲能、多元化負荷大規(guī)模友好接入,提升分布式能源和微電網(wǎng)接入互動能力。
而除了信息設(shè)備,制冷系統(tǒng)的能耗在數(shù)據(jù)中心里算得上數(shù)一數(shù)二的了。目前,傳統(tǒng)風(fēng)冷技術(shù)面對AI大模型這種高算力的制冷需求顯然已經(jīng)不夠看了,所以液冷技術(shù)開始盛行,即通過特殊液體循環(huán)散熱方式,實現(xiàn)更精準(zhǔn)、更高效節(jié)能的散熱。去年,我國規(guī)模最大的液冷數(shù)據(jù)中心全鏈條產(chǎn)業(yè)創(chuàng)新基地落戶青島,占整個數(shù)據(jù)能效10%以內(nèi)的系統(tǒng),實現(xiàn)30%以上的能效節(jié)約。
當(dāng)然,也不能光看AI人工智能和大模型“吃電”的弊端,作為當(dāng)前無可指摘的尖端技術(shù),其助力提質(zhì)增效以及節(jié)能減排的作用是巨大的,并且是輻射所有工業(yè)生產(chǎn)和日常生活的,比如現(xiàn)下時興的綠色工廠打造,AI和新能源的地位屬于“左膀右臂”,《工業(yè)綠色發(fā)展白皮書》中就提到,智能制造示范工廠的生產(chǎn)效率提升了34.8%,碳排放則降低21.2%。
所以未來,AI也好,大模型也好,與清潔能源、可再生能源的融合發(fā)展是必經(jīng)之路,雙向成就,協(xié)同助力工業(yè)綠色轉(zhuǎn)型,加快塑造低碳供應(yīng)鏈閉環(huán)??梢灶A(yù)見,兩者之間的聯(lián)系會愈加緊密,推動經(jīng)濟高質(zhì)量向前。
昵稱 驗證碼 請輸入正確驗證碼
所有評論僅代表網(wǎng)友意見,與本站立場無關(guān)