0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT背后的算力芯片

Hobby觀察 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:梁浩斌 ? 2023-05-21 00:01 ? 次閱讀
【核芯觀察】是電子發(fā)燒友編輯部出品的深度系列專欄,目的是用最直觀的方式令讀者盡快理解電子產(chǎn)業(yè)架構(gòu),理清上、中、下游的各個環(huán)節(jié),同時迅速了解各大細(xì)分環(huán)節(jié)中的行業(yè)現(xiàn)狀。以ChatGPT為首的AI大模型在今年以來可以說是最熱的賽道,而AI大模型對算力的需求爆發(fā),也帶動了AI服務(wù)器中各種類型的芯片需求,所以本期核芯觀察將關(guān)注ChatGPT背后所用到的算力芯片產(chǎn)業(yè)鏈,梳理目前主流類型的AI算力芯片產(chǎn)業(yè)上下游企業(yè)以及運作模式。
ChatGPT帶火AI大模型行業(yè)
ChatGPT是OpenAI公司在2022年11月底發(fā)布的一款聊天機器人,屬于AICG(生成式人工智能技術(shù))之一,ChatGPT能夠通過理解和學(xué)習(xí)人類語言來進(jìn)行對話,還能根據(jù)聊天上下文的信息進(jìn)行理解互動,完成包括撰寫郵件、文案、翻譯、生成代碼等多種任務(wù)。
與以往的決策式AI相比,生成式AI不僅僅局限于通過簡單分析現(xiàn)有數(shù)據(jù)來進(jìn)行決策,而是對現(xiàn)有數(shù)據(jù)進(jìn)行學(xué)習(xí)后,根據(jù)已有知識進(jìn)行模仿來生成全新的內(nèi)容。
ChatGPT可以理解成是利用GPT模型并結(jié)合多種技術(shù),包括多輪對話建模、對話行為分類、情感分析、GPT全稱是Generative Pre-trained Transformer,顧名思義這是一種生成式預(yù)訓(xùn)練語言模型,ChatGPT目前是基于GPT-3.5和GPT-4這兩個大語言模型構(gòu)建的。GPT的核心結(jié)構(gòu)是Transformer模型架構(gòu),可以說ChatGPT是基于Transformer的文本生成能力,在大規(guī)模的對話語料上進(jìn)行了無監(jiān)督預(yù)訓(xùn)練,然后在特定的對話任務(wù)上進(jìn)行有監(jiān)督微調(diào),使得其可以自然地生成文本或者回答問題,適用于自然語言生成的任務(wù),因此在聊天互動上會有較好的表現(xiàn)。
在實際用戶體驗中,ChatGPT展現(xiàn)出極高的對話質(zhì)量和實用性,盡管仍會出現(xiàn)一些事實性錯誤,但超強的對話能力讓它迅速出圈,僅僅在上線兩個月后活躍用戶數(shù)就突破一億,成為史上增速最快的消費級應(yīng)用。
與此同時,ChatGPT的爆火,也引爆了AI大模型創(chuàng)業(yè)的新一輪熱潮,除了各大互聯(lián)網(wǎng)巨頭、高校團隊之外,王小川、李開復(fù)、賈揚清等業(yè)界明星創(chuàng)業(yè)者也紛紛加入AI大模型創(chuàng)業(yè)的賽道,開發(fā)類ChatGPT的產(chǎn)品。
但這種AI大模型背后的技術(shù)底層并不簡單,它需要海量的數(shù)據(jù)、復(fù)雜的算法和強大的算力來支撐。其中,算力是人工智能發(fā)展最大的瓶頸,也是當(dāng)前AI大模型核心競爭力的關(guān)鍵因素。目前,AI大模型主要依賴于GPUCPU+FPGA、ASIC等算力芯片來實現(xiàn)其高效運行。這些算力芯片是針對人工智能算法做了特殊加速設(shè)計的芯片,也被稱為AI加速器或計算卡,是AI的算力基礎(chǔ)。
所以,在當(dāng)前AI大模型行業(yè)的熱潮下,算力需求暴增帶來的是相關(guān)芯片需求的大幅上漲。有機構(gòu)預(yù)計,AI訓(xùn)練對于算力的需求未來將會以每3.5個月翻一番的速度增長。因此我們在這期核芯觀察中,會著重關(guān)注ChatGPT火熱背后的算力芯片產(chǎn)業(yè)鏈。
大模型時代需要更多芯片算力
目前市面上主要的AICG預(yù)訓(xùn)練大模型主要有OpenAI的GPT系列、谷歌的PaLM、Meta的LLaMA、百度的文心系列、騰訊的混元系列、阿里巴巴的通義千問、華為的盤古大模型等等

根據(jù)OpenAI公布的數(shù)據(jù),GPT模型從2018年6月首次發(fā)布到2023年5月,已經(jīng)迭代了四格大版本,參數(shù)量從GPT-1的1.17億到GPT-3的1750億到GPT-3的1750億。而最新的GPT-4雖然沒有公布訓(xùn)練參數(shù)量,不過根據(jù)OpenAI的說法,GPT-4主要的升級是多模態(tài)能力方面,會使用到更多計算資源。
近期谷歌發(fā)布的PaLM2的升級也類似,在參數(shù)量與PaLM2基本同是5400億的情況下大幅提升多模態(tài)能力,也就是可以同時處理文本、圖像、音頻等多種內(nèi)容。
而百度的類ChatGPT模型文心一言,是基于百度文心大模型打造,2021年12月百度推出的文心ERNIE 3.0 Titan參數(shù)量規(guī)模高達(dá)2600億。
當(dāng)然由于大模型類型的不同比如NLP、CV,也有融合了NLP和CV的多模態(tài),所以參數(shù)量也不直接代表大模型的實際能力。
參數(shù)量越高,意味著消耗的算力資源越多。以ChatGPT為例,由于ChatGPT與13億參數(shù)的InstructGPT是一對姐妹模型,僅在采集數(shù)據(jù)方式上有差異。參數(shù)規(guī)模為13.2億的GPT-3 XL與ChatGPT接近,而OpenAI公開的數(shù)據(jù)中,GPT-3 XL訓(xùn)練所需算力是27.5PFlop/s-day(1PetaFLOP/s的效率運行27.5天),那么我們可以大致認(rèn)為ChatGPT訓(xùn)練一次所需算力同樣是需要1PetaFLOP/s的效率運行27.5天。
如果使用英偉達(dá)V100 GPU,按照半精度(FP16)算力125TFLOPS計算,ChatGPT至少需要一塊V100 GPU不間斷滿載運行220天才能完成一次訓(xùn)練;如使用SXM版本的A100,按照半精度算力624TFLOPS計算,那么ChatGPT進(jìn)行一次訓(xùn)練也需要一塊A100運行44天左右。
目前SXM版本最高規(guī)格顯存的V100和A100單卡市場售價大約分別為2.5萬元和9萬元左右。
當(dāng)然由于技術(shù)形式的不同,實際訓(xùn)練中的效率不會這么高,而這樣的訓(xùn)練成本僅是13億參數(shù)量的模型。如今AI大模型動輒千億,甚至萬億的參數(shù)量規(guī)模,比如有機構(gòu)報告推算GPT-4模型參數(shù)量達(dá)到1萬億,那么在暴增的數(shù)據(jù)量下,為了縮短訓(xùn)練時間,對于AI服務(wù)器等算力硬件的需求量毫無疑問會隨著模型訓(xùn)練數(shù)據(jù)量增加而提高。
另一方面,在ChatGPT這類聊天應(yīng)用中,巨大的用戶訪問量也給算力帶來巨大的性能和成本壓力。根據(jù)Similarweb數(shù)據(jù),今年2月OpenAI訪問量已經(jīng)達(dá)到11億次,而根據(jù)Fortune的數(shù)據(jù),用戶每次與ChatGPT互動產(chǎn)生的云算力成本約0.01美元,如果往低了算,每次訪問網(wǎng)站僅進(jìn)行一次互動,那么單月僅算力成本也要1100萬美元。
未來在包括類ChatGPT在內(nèi)的AI大模型進(jìn)入到更多行業(yè)應(yīng)用之后,市場需求持續(xù)開拓,AI服務(wù)器市場規(guī)模將有很大的市場空間,相關(guān)下游應(yīng)用對于算力硬件的需求將會迎來新一輪爆發(fā)。
IDC的數(shù)據(jù)顯示,2021年,全球AI服務(wù)器市場規(guī)模為156億美元,同比增長39.1%;預(yù)計到2025年全球AI服務(wù)器市場規(guī)模將會達(dá)到317.9億美元,復(fù)合年均增長率為19%。根據(jù)集邦咨詢數(shù)據(jù),截至2022年,預(yù)估搭載GPGPU的AI服務(wù)器年出貨量占整體服務(wù)器比重近1%,而2023年,在ChatGPT相關(guān)應(yīng)用加持下,預(yù)估出貨量年同比增長8%,2022~2026年CAGR將達(dá)10.8%。
AI大模型背后用到哪些芯片?
在AI大模型領(lǐng)域,主要包括訓(xùn)練(training)和推理(inference)兩個步驟,訓(xùn)練即前面提到的通過大量經(jīng)過標(biāo)記的數(shù)據(jù)來訓(xùn)練能夠完成特定功能的模型,而推斷即利用經(jīng)過訓(xùn)練后的模型,根據(jù)新導(dǎo)入的數(shù)據(jù)來推斷出結(jié)論。
用于人工智能的服務(wù)器目前主要用到CPU搭配GPU、FPGA、AI ASIC這幾種加速芯片,根據(jù)不同的計算任務(wù)選擇不同的芯片搭配。對于大模型訓(xùn)練而言,傳統(tǒng)的CPU受限于單行運算,主要在邏輯控制、串行運算等方面有優(yōu)勢,不擅長復(fù)雜算法運算和處理并行重復(fù)的操作。所以CPU在深度學(xué)習(xí)中會被用于推理或預(yù)測等領(lǐng)域,而在服務(wù)器中,CPU可以負(fù)責(zé)整個系統(tǒng)的管理和控制,是服務(wù)器的基礎(chǔ)硬件,而GPU、FPGA、ASIC等加速芯片則負(fù)責(zé)AI計算任務(wù)的加速,兩者相互協(xié)作,共同提升整個系統(tǒng)的性能。按照IDC的數(shù)據(jù)CPU在基礎(chǔ)型、高性能型、推理型、訓(xùn)練型服務(wù)器中成本占比分別為32%、23.3%、25%、9.8%。
GPU則是目前AI服務(wù)器最常見的芯片,它提供多核并行計算的基礎(chǔ)結(jié)構(gòu),可以支撐大算力需求,并且擁有高浮點運算能力,在處理圖形數(shù)據(jù)和復(fù)雜算法方面與CPU相比有明顯優(yōu)勢,滿足深度學(xué)習(xí)領(lǐng)域的大量數(shù)據(jù)運算需求。不過GPU管理控制能力弱,需要配合CPU使用,功耗也較高。
FPGA也就是現(xiàn)場可編程門陣列,特點是可以無限次編程、靈活性較高,延時低,實時性強,可以同時進(jìn)行數(shù)據(jù)并行和任務(wù)并行計算,在處理特定應(yīng)用時會有明顯的效率優(yōu)勢。同時可重復(fù)編程為算法功能實現(xiàn)和優(yōu)化提供較大的修改空間。但與此同時FPGA開發(fā)難度大,價格較高,所以應(yīng)用場景會受到一定限制。
AI用ASIC顧名思義是全定制化的芯片,專為特定應(yīng)用或?qū)崿F(xiàn)某種特定功能而專門設(shè)計的AI芯片,在處理相應(yīng)任務(wù)時的能耗、效率表現(xiàn)都最好。但ASIC前期研發(fā)成本高、時間周期長,并且由于定制化設(shè)計,應(yīng)用場景極為局限。在深度學(xué)習(xí)算法穩(wěn)定后,可以通過根據(jù)算法需求設(shè)計ASIC,提供最高效率的算力硬件,大規(guī)模應(yīng)用下能夠大幅降低整體系統(tǒng)成本。

總結(jié)一下這四種芯片在AI計算中起到的不同作用:CPU主要用于邏輯判斷、任務(wù)調(diào)度和控制方面;模型訓(xùn)練則往往會使用GPU;FPGA多數(shù)在研發(fā)階段、數(shù)據(jù)中心、AI推理方面;AI用ASIC主要面向使用特定AI算法的應(yīng)用場景,需要較為成熟的應(yīng)用支撐其量產(chǎn)。
根據(jù)IDC的數(shù)據(jù),中國AI芯片市場上目前GPU占比最高為89%,其次是NPU占到9.6%,ASIC和FPGA僅分別占1%和0.4%。其中NPU主要是用在邊緣側(cè)。而對于AI服務(wù)器的使用領(lǐng)域,按照當(dāng)前趨勢,在市場增長的情況下,服務(wù)器用于推理的負(fù)載占比會緩慢增加。2021用于推理和訓(xùn)練的占比分別為40.9%和59.1%,IDC預(yù)測2025年推理和訓(xùn)練的占比調(diào)整為 60.8%和39.2%。
不過隨著AI大模型的成熟、算法持續(xù)優(yōu)化、芯片性能的提升等因素變化,未來模型消耗的算力需求、服務(wù)器數(shù)量需求可能會比預(yù)測的數(shù)據(jù)要低。
下一期內(nèi)容,我們將會對AI大模型中使用到的CPU、GPU、FPGA、ASIC這些細(xì)分領(lǐng)域產(chǎn)業(yè)鏈中做進(jìn)一步的分析梳理,記得關(guān)注我們~
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算力芯片
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    4483
  • 算力
    +關(guān)注

    關(guān)注

    1

    文章

    867

    瀏覽量

    14649
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1523

    瀏覽量

    7247
收藏 人收藏

    評論

    相關(guān)推薦

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--全書概覽

    本帖最后由 1653149838.791300 于 2024-10-16 22:19 編輯 感謝平臺提供的書籍,厚厚的一本,很有分量,感謝作者的傾力付出成書。 本書主要講芯片CPU
    發(fā)表于 10-15 22:08

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    試用評測資格! 前言 不知不覺中,我們來到一個計算機科學(xué)飛速發(fā)展的時代,手機和計算機中各類便捷的軟件已經(jīng)融入日常生活,在此背景下,硬件特別是強勁的芯片,對于軟件服務(wù)起到不可替代的支撐作用。
    發(fā)表于 09-02 10:09

    淺析三大之異同

    隨著一年多前ChatGPT的出現(xiàn)引爆人工智能(AI)浪潮,支撐大模型背后的“”概念突然闖進(jìn)我們的視野,成為科技圈炙手可熱的新詞,引領(lǐng)著最新潮流。作為數(shù)字經(jīng)濟時代新生產(chǎn)
    的頭像 發(fā)表于 08-30 12:56 ?450次閱讀
    淺析三大<b class='flag-5'>算</b><b class='flag-5'>力</b>之異同

    商湯科技采購40000顆英偉達(dá)芯片,縮小中美差距

    徐冰認(rèn)為,國產(chǎn)芯片崛起以及商品化帶來的投資價值,使中美差距有望逐步縮小。只要中國持續(xù)在
    的頭像 發(fā)表于 05-28 11:25 ?873次閱讀

    揭秘芯片:為何它如此關(guān)鍵?

    在數(shù)字化時代,芯片作為電子設(shè)備的核心組件,其性能直接關(guān)系到設(shè)備的運行速度和處理能力。而芯片,即其計算能力,更是衡量芯片性能的重要指標(biāo)。
    的頭像 發(fā)表于 05-09 08:27 ?765次閱讀
    揭秘<b class='flag-5'>芯片</b><b class='flag-5'>算</b><b class='flag-5'>力</b>:為何它如此關(guān)鍵?

    力系列基礎(chǔ)篇——101:從零開始了解

    相信大家已經(jīng)感受到,我們正處在一個人工智能時代。如果要問在人工智能時代最重要的是什么?那必須是:!!
    的頭像 發(fā)表于 04-24 08:05 ?1002次閱讀
    <b class='flag-5'>算</b>力系列基礎(chǔ)篇——<b class='flag-5'>算</b><b class='flag-5'>力</b>101:從零開始了解<b class='flag-5'>算</b><b class='flag-5'>力</b>

    時代, 如何打破內(nèi)存墻

    設(shè)計的不斷革新,進(jìn)入了大時代。 目前,主流AI芯片的架構(gòu)仍然沿用了傳統(tǒng)的馮·諾依曼模型,這一設(shè)計將計算單元與數(shù)據(jù)存儲分離。在這種架構(gòu)下,處理器需要從內(nèi)存中讀取數(shù)據(jù),執(zhí)行計算任務(wù),然后將結(jié)果寫回內(nèi)存。盡管AI
    的頭像 發(fā)表于 03-06 19:51 ?261次閱讀
    大<b class='flag-5'>算</b><b class='flag-5'>力</b>時代, 如何打破內(nèi)存墻

    芯片:未來科技的加速器?

    在數(shù)字化時代,芯片作為電子設(shè)備的核心組件,其性能直接關(guān)系到設(shè)備的運行速度和處理能力。而芯片,即其計算能力,更是衡量芯片性能的重要指標(biāo)。
    的頭像 發(fā)表于 02-27 09:42 ?791次閱讀
    高<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>:未來科技的加速器?

    智能規(guī)模超通用,大模型對智能提出高要求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)是設(shè)備通過處理數(shù)據(jù),實現(xiàn)特定結(jié)果輸出的計算能力,常用FLOPS作為計量單位。FLOPS是Floating-point Operations Per Second
    的頭像 發(fā)表于 02-06 00:08 ?5756次閱讀

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發(fā)布于 :2024年01月25日 14:54:52

    ChatGPT芯片如何做輸出

    卡的核心當(dāng)然還是計算芯片,會搭配大容量高帶寬的內(nèi)存、緩存,以及搭載CPU用于調(diào)度,為了幫助數(shù)據(jù)傳輸,便會使用高速通道,這便是PCIe(高速串行計算機擴展總線標(biāo)準(zhǔn))在系統(tǒng)中的作用:提供總線通道。
    發(fā)表于 01-11 10:01 ?418次閱讀
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>如何做<b class='flag-5'>算</b><b class='flag-5'>力</b>輸出

    芯科技,解密ChatGPT暢聊之芯片

    的GPU服務(wù)器,尤其是英偉達(dá)的A100 GPU,提供了強大而精確的計算能力。ChatGPT的功能遠(yuǎn)超日常對話,它能夠?qū)W習(xí)、理解并生成人類般的文本,是人工智能領(lǐng)域的一個重要突破。但其真正力量的源泉,是背后那些不斷工作的
    的頭像 發(fā)表于 12-27 07:45 ?876次閱讀
    芯科技,解密<b class='flag-5'>ChatGPT</b>暢聊之<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>

    淺談為AI大而生的存-體芯片

    大模型爆火之后,存一體獲得了更多的關(guān)注與機會,其原因之一是因為存一體芯片的裸相比傳統(tǒng)架構(gòu)的AI
    發(fā)表于 12-06 15:00 ?329次閱讀
    淺談為AI大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-體<b class='flag-5'>芯片</b>

    芯片里的HBM,你了解多少?

    最近,隨著人工智能行業(yè)的高速崛起,大芯片業(yè)成為半導(dǎo)體行業(yè)為數(shù)不多的熱門領(lǐng)域HBM(高寬帶內(nèi)存:High-bandwidthmemory)作為大
    的頭像 發(fā)表于 12-05 16:14 ?1490次閱讀
    大<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>里的HBM,你了解多少?

    到底什么是的作用?

    的字面意思,大家都懂,就是計算能力(Computing Power)。
    的頭像 發(fā)表于 11-20 09:26 ?1678次閱讀
    到底什么是<b class='flag-5'>算</b><b class='flag-5'>力</b>?<b class='flag-5'>算</b><b class='flag-5'>力</b>的作用?