當前位置: 首頁 > 能源互聯(lián)網(wǎng) > 產(chǎn)經(jīng)信息

生成式AI有多耗能:谷歌耗電堪比一國電量,ChatGPT答個問題“喝水”10毫升

上游新聞發(fā)布時間:2024-03-12 16:27:50

  11日,據(jù)環(huán)球時報援引《紐約客》雜志報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。

  據(jù)報道,隨著生成式人工智能的廣泛應用,預計到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力,這顯示了AI技術(shù)對電力資源的巨大需求。是什么導致了生成式AI如此高的能耗?在未來有何解決方案?對此,上游新聞進行了了解。

  耗電:堪比一國用電量

  隨著人工智能技術(shù)的發(fā)展,對芯片的需求急劇增加,進而帶動了電力需求的激增。全球數(shù)據(jù)中心市場的耗電量已經(jīng)從十年前的100億瓦增加到如今的1000億瓦水平。根據(jù)美國機構(gòu)Uptime Institute的預測,到2025年,人工智能業(yè)務在全球數(shù)據(jù)中心用電量中的占比將從2%增加到10%。

  據(jù)經(jīng)濟觀察網(wǎng)消息,2023年10月10日,阿姆斯特丹自由大學商業(yè)與經(jīng)濟學院的博士候選人德弗里斯(Alex de Vries)在一篇論文中表示,像ChatGPT這樣的大型語言模型需要大量的數(shù)據(jù)集來訓練人工智能,在人工智能模型經(jīng)過訓練階段后,會過渡到推理階段,然后根據(jù)新的輸入生成信息。推理階段消耗的能源似乎更多。

  研究公司SemiAnalysis表示,OpenAI公司需要3617臺英偉達的HGX A100服務器,總共28936個圖形處理單元(GPU)來支持ChatGPT,這意味著每天的能源需求就要達到564兆瓦時,這要比訓練階段的能源需求高得多。

  過去的工作常常關(guān)注的是人工智能訓練所消耗的能量,但德弗里斯提醒道,需要更多考慮人工智能的整個生命周期。

  此外,英偉達生產(chǎn)的GPU芯片作為人工智能領(lǐng)域的命脈,該公司在2023年第二季度的收入為135億美元,其數(shù)據(jù)中心業(yè)務較上一季度增長了141%,這一點足以證明人工智能產(chǎn)品需求的迅速增長。

  德弗里斯表示:“考慮到未來幾年的預期產(chǎn)量,到2027年,新制造的人工智能設備的用電量將與荷蘭一樣多,這也與瑞典、阿根廷等國的用電量處于同一范圍。”

  德弗里斯還承認:“最壞的情況就是,僅谷歌一家公司的人工智能就可以消耗與愛爾蘭等國家一樣多的電力。”

  德弗里斯在論文中設想,如果將生成式人工智能集成到谷歌的每一個搜索中,那么屆時谷歌就會大幅增加對電力的需求。

  另一家研究機構(gòu)New Street Research也得出了類似的估計,認為谷歌將需要大約40萬臺服務器,這將導致每天消耗62.4吉瓦時,每年消耗22.8太瓦時的能源。

  費水:答50個問題“喝”水500毫升

  除了耗電,生成式AI同樣耗費著巨量的水資源。

  要對AI進行大量訓練,也就意味著需要更強的算力中心和與之匹配的散熱能力。在AI快速進步的道路上,對水資源的消耗也不斷加碼升級。

  谷歌發(fā)布的2023年環(huán)境報告顯示,公司前一年的用水量同比顯著增加了20%,達到56億加侖(21198305立方米),而其中絕大部分都被用于為該公司的數(shù)據(jù)中心散熱。而這并不是個例。2023年初,由OpenAI打造的ChatGPT火遍全球,一躍成為人工智能領(lǐng)域的現(xiàn)象級應用,也引發(fā)了全球互聯(lián)網(wǎng)公司的AIGC“軍備競賽”。

  科羅拉多大學與德克薩斯大學的研究人員在一篇名為“讓AI更節(jié)水”的預印論文中也發(fā)布了訓練AI的用水估算結(jié)果,顯示訓練GPT-3所需的清水量相當于填滿一個核反應堆的冷卻塔所需的水量。ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。

  除了谷歌,另一個巨頭Meta在美國亞利桑那州建設了數(shù)據(jù)中心,僅2022年用水量就超過260萬立方米。隨著全球人工智能“軍備競賽”的持續(xù)升級和大量科技公司競相建設新數(shù)據(jù)中心,其消耗的水量很可能會繼續(xù)上升。

  正在大力開發(fā)人工智能的微軟也在其最新的環(huán)境報告中透露,2022年公司用水量同比前一年激增了34%,達到640萬立方米,比2500個奧林匹克標準游泳池的水量還多。外部研究人員認為這與微軟的人工智能研究有關(guān)。

  對此,有專家表示,整體來看,當前數(shù)據(jù)中心耗水已經(jīng)成為制約數(shù)據(jù)中心快速發(fā)展的因素之一。中國電子節(jié)能技術(shù)協(xié)會數(shù)據(jù)中心節(jié)能技術(shù)委員會秘書長呂天文介紹稱,為了節(jié)約寶貴的自來水資源,很多企業(yè)嘗試用各種方法為數(shù)據(jù)中心散熱,例如,微軟曾嘗試部署海下數(shù)據(jù)中心,F(xiàn)acebook數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷,“但上述方法總是會帶來新的問題,目前國內(nèi)數(shù)據(jù)中心的用水主要使用的還是自來水,近幾年政府層面更鼓勵數(shù)據(jù)中心企業(yè)利用中水(循環(huán)再利用的水)。”

  據(jù)悉,此前北京市發(fā)展改革委修訂印發(fā)了《關(guān)于進一步加強數(shù)據(jù)中心項目節(jié)能審查的若干規(guī)定》,其中就新增了關(guān)于引導數(shù)據(jù)中心充分利用再生水的內(nèi)容:再生水輸配管網(wǎng)覆蓋范圍內(nèi)的數(shù)據(jù)中心,設備冷卻水、機房加濕等非生活用水應采用再生水。

  碳排放:兩月1000噸

  除了消耗大量的電力和水資源,以生成式AI為代表的智算算力還是碳排放大戶。

  新冠病毒的分子信息建模、石油勘探中的環(huán)境模擬、航空航天導航,需用到超算算力;互聯(lián)網(wǎng)、金融、工業(yè)、城市治理等,對通用算力和智算算力需求很大;智能網(wǎng)聯(lián)車、視頻監(jiān)控等,偏重于邊緣計算算力。而今,城市經(jīng)濟、社會、生活無時無刻不需要算力。

  阿里云中國區(qū)解決方案副總余勇舉例,在淘寶,拍照搜索商品的“拍立淘”,對算力要求是在30億張圖片中搜尋,2秒出結(jié)果;在制造能源領(lǐng)域,智算算力已運用于海螺集團150條水泥產(chǎn)線的經(jīng)營決策優(yōu)化,運用于對山東德州電力的負荷預測等,算力需求驚人。“國內(nèi)企業(yè)的智算算力需求,平均每3.5個月就會翻一倍。”

  “截至2022年底,全國算力總規(guī)模達到180eflops(每秒18000億億次浮點運算),位居全球第二。”中國信通院云大所副所長李潔博士說。

  需求急速擴增同時,越來越多數(shù)據(jù)中心被戴上“能耗大戶”帽子。有研究機構(gòu)指出,訓練ChatGPT這樣一個包含1750億參數(shù)的大模型,帶來兩個月排碳1000噸的巨大消耗。

  對此,早在2021年11月,我國就已出臺公共機構(gòu)碳達峰方案,新建大型、超大型數(shù)據(jù)中心須全部達到綠色數(shù)據(jù)中心要求,綠色低碳等級達4a級以上,電能利用效率(pue)1.3以下。

  應對:優(yōu)化架構(gòu)提升能效

  在氣候挑戰(zhàn)日益嚴峻的今天,不斷膨脹的人工智能正消耗著越來越多的電力、水資源,產(chǎn)生著越來越多的碳排放。據(jù)預測,到2030年,智能計算的年耗電量將達到5000億度,占全球發(fā)電總量的5%。如果AlphaGo對弈一盤棋就要耗去1噸煤的發(fā)電量,訓練對弈千萬盤棋局就要燃燒20萬噸煤,那么讓大模型賦能千行百業(yè),地球能否承受得起如此巨大的碳排放?

  此外,根據(jù)摩爾定律,計算機的算力每18個月翻一番,而并行訓練日益復雜的AI網(wǎng)絡的需求,每三四個月就會翻一番。中國工程院院士、清華大學信息科學技術(shù)學院院長戴瓊海指出,近五年來,作為AI發(fā)展重要支撐的算力正逐漸變?yōu)橹萍sAI繼續(xù)向前的瓶頸。

  為此,行業(yè)大佬及科研人員也在進行著不斷的研究和探索。

  近日,人工智能芯片龍頭英偉達的創(chuàng)始人兼CEO黃仁勛表示,人工智能的未來發(fā)展與狀態(tài)和儲能緊密相連。他強調(diào),不應僅僅關(guān)注計算力,而是需要更全面地考慮能源消耗問題。

  OpenAl的創(chuàng)始人山姆·奧特曼也提出了類似的看法。他認為,未來AI技術(shù)的發(fā)展將高度依賴于能源,特別是光伏和儲能技術(shù)的進步。

  “在控制大模型帶來的能耗和成本方面,半導體企業(yè)可以通過優(yōu)化計算架構(gòu)、提升能效等措施,降低大模型的能耗和成本。”北京大學集成電路學院研究員賈天宇說。

  長期以來,人工智能及其熱門應用常常被喻為“大腦”,比如自動駕駛被喻為“車輪上的大腦”。但是,人腦并不是僅僅依靠大腦工作,腦干、小腦也承擔了許多任務,比如控制心跳和體溫,保持身體的穩(wěn)定性、協(xié)調(diào)性等。如果大腦進行所有的決策和控制,人體就很難負擔大腦需要的能量。

  比照包含大腦、小腦、腦干的人腦系統(tǒng),恩智浦半導體執(zhí)行副總裁兼首席技術(shù)官Lars Reger描述了一種更加高效節(jié)能的計算體系:以AI算力芯片為“大腦”,進行高效能的計算和加速;以網(wǎng)關(guān)處理器為“小腦”,實現(xiàn)不同功能區(qū)的互聯(lián)和集成,以及異構(gòu)網(wǎng)絡中的數(shù)據(jù)處理;以MCU、感知芯片、聯(lián)網(wǎng)芯片作為“腦干”,實現(xiàn)感知和實時任務處理。

  此外,目前在大算力芯片研發(fā)上,我國在光電智能芯片領(lǐng)域有望與歐美一爭高下。中國工程院院士、清華大學信息科學技術(shù)學院院長戴瓊海表示,一旦光電智能計算得到應用,將對當代計算的速度、能量效率和數(shù)據(jù)通量產(chǎn)生變革性影響,可實現(xiàn)計算速度的成千倍提升、能效的百萬倍提升。“改用光電智能芯片,AlphaGo整體計算能耗將從1噸煤下降到1克。”戴瓊海說。

  (1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時——編者注)

  上游新聞綜合自 環(huán)球時報、每日經(jīng)濟新聞、文匯報、上觀新聞、經(jīng)濟觀察網(wǎng)等


評論

用戶名:   匿名發(fā)表  
密碼:  
驗證碼:
最新評論0