0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型為何成耗能大戶(hù)

現(xiàn)代電子技術(shù) ? 來(lái)源:經(jīng)濟(jì)日?qǐng)?bào) ? 2024-04-29 17:25 ? 次閱讀

隨著人工智能技術(shù)快速發(fā)展,人工智能(AI)大模型的運(yùn)行消耗問(wèn)題受到越來(lái)越多關(guān)注。大模型為何成了耗能大戶(hù)?能耗問(wèn)題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?如何解決能耗問(wèn)題?

耗電耗水量大

人工智能大模型到底有多耗能?據(jù)斯坦福人工智能研究所發(fā)布的《2023年AI指數(shù)報(bào)告》,AI大語(yǔ)言模型GPT-3一次訓(xùn)練的耗電量為1287兆瓦時(shí),大概相當(dāng)于3000輛特斯拉電動(dòng)汽車(chē)共同開(kāi)跑、每輛車(chē)跑20萬(wàn)英里所耗電量的總和。報(bào)告同時(shí)提出,AI大語(yǔ)言模型GPT-3一次訓(xùn)練,相當(dāng)于排放了552噸二氧化碳。

國(guó)外研究顯示,一次標(biāo)準(zhǔn)谷歌搜索耗電0.3瓦時(shí),AI大語(yǔ)言模型ChatGPT響應(yīng)一次用戶(hù)請(qǐng)求耗電約2.96瓦時(shí),在AI大模型驅(qū)動(dòng)下的一次谷歌搜索耗電8.9瓦時(shí)。

除了耗電,另有研究顯示,AI大語(yǔ)言模型GPT-3在訓(xùn)練期間耗水近700噸,每回答20個(gè)至50個(gè)問(wèn)題就要消耗500毫升水。弗吉尼亞理工大學(xué)研究指出,Meta公司在2022年使用了超過(guò)260萬(wàn)立方米的水,主要作用是為數(shù)據(jù)中心提供冷卻。

據(jù)了解,人工智能大模型GPT-4的主要參數(shù)是GPT-3的20倍,計(jì)算量是GPT-3的10倍,能耗也隨之大幅增加。

華泰證券研報(bào)預(yù)測(cè),到2030年,中國(guó)與美國(guó)的數(shù)據(jù)中心總用電量將分別達(dá)到0.65萬(wàn)億千瓦時(shí)至0.95萬(wàn)億千瓦時(shí)、1.2萬(wàn)億千瓦時(shí)至1.7萬(wàn)億千瓦時(shí),是2022年的3.5倍和6倍以上。屆時(shí),AI用電量將達(dá)到2022年全社會(huì)用電量的20%和31%。

為何如此耗能

為什么人工智能大模型如此耗能?AI技術(shù)迅速發(fā)展,對(duì)芯片的需求急劇增加,進(jìn)而帶動(dòng)電力需求激增。同時(shí),對(duì)AI進(jìn)行大量訓(xùn)練,也意味著需要更強(qiáng)的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因?yàn)楹芏鄶?shù)據(jù)中心全年無(wú)休,發(fā)熱量巨大,大規(guī)模電耗和水耗主要來(lái)自于冷卻需求。

相關(guān)統(tǒng)計(jì)顯示,數(shù)據(jù)中心運(yùn)行成本的六成是電費(fèi),而電費(fèi)里的四成多來(lái)自冷卻散熱,相應(yīng)也會(huì)帶來(lái)巨量冷卻水的消耗。風(fēng)冷數(shù)據(jù)中心六成多的耗電量都會(huì)用在風(fēng)冷上,只有不到四成電力用在實(shí)際計(jì)算上。如今,全球數(shù)據(jù)中心市場(chǎng)耗電量是10年前的近10倍。

能耗問(wèn)題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?英偉達(dá)首席執(zhí)行官黃仁勛曾提到,AI和算力耗能巨大,但由于計(jì)算機(jī)性能飛速增長(zhǎng),計(jì)算會(huì)更加高效,相當(dāng)于更節(jié)省能源。當(dāng)前,我國(guó)實(shí)施嚴(yán)格的能耗雙控政策,無(wú)論是AI大模型本身還是其應(yīng)用行業(yè),對(duì)單位GDP能耗來(lái)說(shuō)均有明顯降低作用。

從整體能耗來(lái)看,AI大模型帶來(lái)的效率提升也會(huì)抵消一部分能耗增長(zhǎng)。隨著綠電廣泛應(yīng)用,再加上我國(guó)逐步由能耗雙控向碳排放雙控政策轉(zhuǎn)變,可再生能源對(duì)未來(lái)AI大模型發(fā)展的支撐能力也會(huì)越來(lái)越強(qiáng)。

此外,相較于其他國(guó)家而言,中美等能源消費(fèi)大國(guó)和數(shù)據(jù)大國(guó),具備更好發(fā)展AI大模型的資源條件和基礎(chǔ)。

怎樣應(yīng)對(duì)挑戰(zhàn)

據(jù)預(yù)測(cè),到2025年,AI相關(guān)業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加至10%。到2030年,智能計(jì)算年耗電量將達(dá)到5000億千瓦時(shí),占全球發(fā)電總量的5%。因此,在大力發(fā)展AI大模型的同時(shí),必須提前做好相關(guān)規(guī)劃布局,以提供必要的電力和水資源等技術(shù)支撐。

有專(zhuān)家認(rèn)為,人工智能的未來(lái)發(fā)展與狀態(tài)和儲(chǔ)能緊密相連。因此,不應(yīng)僅關(guān)注計(jì)算力,而是需要更全面地考慮能源消耗問(wèn)題。OpenAI創(chuàng)始人奧爾特曼認(rèn)為,未來(lái)AI技術(shù)取決于能源突破,更綠色的能源尤其是核聚變或更便宜的太陽(yáng)能以及儲(chǔ)能的可獲得性,是人工智能發(fā)展快慢的重要因素。

為降低電力和水資源消耗,很多企業(yè)在嘗試采用各種方法為數(shù)據(jù)中心散熱。例如,微軟曾嘗試部署海下數(shù)據(jù)中心,臉書(shū)(Facebook)數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷等,我國(guó)很多企業(yè)則把數(shù)據(jù)中心布局在水電資源豐富的西南地區(qū)。

目前,可通過(guò)算法優(yōu)化、開(kāi)發(fā)和使用更高效的AI專(zhuān)用硬件、調(diào)整神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程以?xún)?yōu)化計(jì)算資源等技術(shù)方式來(lái)降低AI大模型的能耗,并更多采用自然冷卻、液冷、三聯(lián)供、余熱回收等新興節(jié)能技術(shù),提高制冷效率以降低數(shù)據(jù)中心能耗。從技術(shù)未來(lái)發(fā)展方向上看,光電智能芯片也有助于解決AI大模型的電耗和水耗問(wèn)題。

AI大模型的發(fā)展,不能僅符合高端化、智能化的要求,更要符合綠色化的發(fā)展要求。為此,從國(guó)家和地方層面上看,為緩解AI大模型發(fā)展所帶來(lái)的電力和水資源沖擊,有必要將數(shù)據(jù)中心行業(yè)納入高耗能行業(yè)管理體系,并提前做好相關(guān)規(guī)劃布局。同時(shí),加強(qiáng)資源整合,充分發(fā)揮人工智能大模型和數(shù)據(jù)中心的效能,通過(guò)使用效能下限設(shè)置等方式,確保其自身的電力和水資源使用效率。還應(yīng)嚴(yán)格落實(shí)國(guó)家能耗雙控及碳排放雙控政策,并將其碳足跡與水足跡納入行業(yè)考核范圍,切實(shí)推動(dòng)碳足跡與水足跡逐步降低,以應(yīng)對(duì)日益增長(zhǎng)的AI大模型電力和水資源需求。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29359

    瀏覽量

    267643
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    490

    瀏覽量

    10225
  • 可再生能源
    +關(guān)注

    關(guān)注

    1

    文章

    666

    瀏覽量

    39468
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2206

    瀏覽量

    2229

原文標(biāo)題:大模型為何成耗能大戶(hù)

文章出處:【微信號(hào):現(xiàn)代電子技術(shù),微信公眾號(hào):現(xiàn)代電子技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    光電二極管輸入的偏置電流為何這么大?

    用的是光電二極管模型,輸入的偏置電流為何這么大,是固定的,但放大倍數(shù)如何求
    發(fā)表于 08-16 06:21

    esp32的整體平均功耗能到多少?

    deep-sleep模式,rtc定時(shí)5s喚醒一次,每次就啟動(dòng)ble 進(jìn)行廣播并維持1s的等待連接。如果沒(méi)有就進(jìn)入deep-sleep。 這種模式下,如果沒(méi)有連接的話,esp32的整體平均功耗能到多少?沒(méi)有用ulp。理論上應(yīng)該是官方數(shù)據(jù)10uA,但是粗略測(cè)量會(huì)高很多。請(qǐng)問(wèn)還需要怎么做嗎?
    發(fā)表于 06-26 07:52

    儲(chǔ)能元件和耗能元件的定義

    在電工和電子學(xué)的世界中,儲(chǔ)能元件和耗能元件是兩大基本元素,它們各自在電路中扮演著不同的角色,對(duì)電路的功能和性能產(chǎn)生著深遠(yuǎn)的影響。本文將對(duì)這兩種元件進(jìn)行詳細(xì)的探討,包括它們的定義、特性、種類(lèi)以及應(yīng)用。
    的頭像 發(fā)表于 05-16 18:07 ?1599次閱讀

    儲(chǔ)能元件和耗能元件怎么區(qū)分?

    儲(chǔ)能元件和耗能元件在電子電路中起著截然不同的作用,它們的區(qū)分對(duì)于電路設(shè)計(jì)和系統(tǒng)性能至關(guān)重要。
    的頭像 發(fā)表于 05-06 16:05 ?1044次閱讀

    使用MotorControl Workbench 5.1.3生的軟件,運(yùn)行后software error,為什么?

    使用MotorControl Workbench 5.1.3生的軟件,運(yùn)行,第一次可以發(fā)波形,第二次報(bào)software error;后面沒(méi)次清除故障都是直接software error;沒(méi)有任何波形產(chǎn)生。請(qǐng)問(wèn)為何會(huì)報(bào)這個(gè) 故障?
    發(fā)表于 04-25 06:17

    新火種AI|算力不足,小模型AI模型發(fā)展下個(gè)方向?

    大力出奇跡不是唯一方法,把大模型做小才是本事
    的頭像 發(fā)表于 04-23 21:20 ?173次閱讀
    新火種AI|算力不足,小<b class='flag-5'>模型</b><b class='flag-5'>成</b>AI<b class='flag-5'>模型</b>發(fā)展下個(gè)方向?

    采用STM8L152停機(jī)模式+點(diǎn)亮LCD的情況下的功耗能夠做到多低呢?

    有沒(méi)有人試驗(yàn)過(guò),采用STM8L152停機(jī)模式+點(diǎn)亮LCD的情況下的功耗能夠做到多低呢?是多少呢?
    發(fā)表于 04-15 07:16

    模型推理顯卡選購(gòu)指南:4090顯卡為何成為不二之選

    開(kāi)發(fā)者非常關(guān)注的話題。 現(xiàn)在市面上加速卡型號(hào)多如牛毛,但說(shuō)到適用大模型推理的顯卡,那4090顯卡絕對(duì)是現(xiàn)階段“推理王卡”般的存在。論性能不如H100,論價(jià)格不如3090,看似平平無(wú)奇的4090顯卡為何能在眾多競(jìng)爭(zhēng)者中脫穎而出,成為大模型
    的頭像 發(fā)表于 04-11 11:00 ?638次閱讀
    大<b class='flag-5'>模型</b>推理顯卡選購(gòu)指南:4090顯卡<b class='flag-5'>為何</b>成為不二之選

    AI大模型落地學(xué)習(xí)機(jī),大模型應(yīng)用學(xué)習(xí)機(jī)創(chuàng)新方向

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大模型在終端產(chǎn)品上的落地,除了智能手機(jī)、PC之外,還有學(xué)習(xí)機(jī)。過(guò)去一段時(shí)間,隨著大模型的火熱,互聯(lián)網(wǎng)、教育公司都已經(jīng)紛紛披露大模型在教育領(lǐng)域的最新動(dòng)態(tài),并發(fā)布搭載AI
    的頭像 發(fā)表于 02-23 01:19 ?3708次閱讀

    osi參考模型與TCP/IP參考模型的對(duì)應(yīng)關(guān)系

    OSI參考模型是一種將計(jì)算機(jī)網(wǎng)絡(luò)協(xié)議分解七個(gè)不同層次的概念模型。這七個(gè)層次分別是物理層、數(shù)據(jù)鏈路層、網(wǎng)絡(luò)層、傳輸層、會(huì)話層、表示層和應(yīng)用層。每一層都負(fù)責(zé)不同的任務(wù)和功能,通過(guò)這種分層的方式,可以
    的頭像 發(fā)表于 01-11 14:26 ?4922次閱讀

    如何將adi的spice模型(.cir文件)添加到pspice里?

    我在用cadence的pspice仿真電路時(shí),需要一個(gè)AD620器件,后來(lái)雖然我在cadence自帶的庫(kù)中找到了。但還是留了很多疑問(wèn): 1.ad620是adi公司出的,網(wǎng)站上有spice模型
    發(fā)表于 11-28 06:58

    什么是隔直電容,它們為何重要?(上)

    什么是隔直電容,它們為何重要?(上)
    的頭像 發(fā)表于 11-23 16:39 ?1163次閱讀
    什么是隔直電容,它們<b class='flag-5'>為何</b>重要?(上)

    什么是隔直電容,它們為何重要?(下)

    什么是隔直電容,它們為何重要?(下)
    的頭像 發(fā)表于 11-23 15:58 ?1802次閱讀
    什么是隔直電容,它們<b class='flag-5'>為何</b>重要?(下)

    文心耀烏鎮(zhèn),“大模型之光”展現(xiàn)了什么?

    當(dāng)烏鎮(zhèn)將目光投向AI,文心4.0為大模型之光。
    的頭像 發(fā)表于 11-12 08:53 ?851次閱讀
    文心耀烏鎮(zhèn),“大<b class='flag-5'>模型</b>之光”展現(xiàn)了什么?

    創(chuàng)新的低功耗能量采集傳感器設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《創(chuàng)新的低功耗能量采集傳感器設(shè)計(jì).pdf》資料免費(fèi)下載
    發(fā)表于 11-02 11:09 ?0次下載
    創(chuàng)新的低功<b class='flag-5'>耗能</b>量采集傳感器設(shè)計(jì)