0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

分析 丨 AI數(shù)據(jù)中心堪比超算,NVIDIA與AMD同場競技

芯查查 ? 來源:芯查查 ? 作者:芯查查 ? 2023-07-17 10:12 ? 次閱讀

超級計算機對于科學研究、能源、工程設計領域具有重要意義,在商業(yè)用途中也發(fā)揮重要作用。2022年高性能計算專業(yè)大會發(fā)布的全球超級計算機Top500排行榜顯示,美國橡樹嶺國家實驗室(ORNL)的Frontier系統(tǒng)位列榜首,自2022年6月以來,F(xiàn)rontier一直是全球超級計算機Top500名單上的強大設備。

wKgaomS0o3WAHNjJAACA-ItwBNA72.webp

圖注:全球超級計算機Top10,發(fā)布時間為2022年11月(來源:中科院網(wǎng)信工作網(wǎng))

進入2023年,超級計算機的排行將發(fā)生改變。

芯查查APP顯示,在美國勞倫斯利弗莫爾國家實驗室(LLNL)安裝的“El Capitan”超級計算機最快于2023年底啟動,從而可能刷新全球超級計算機榜單。El Capitan估計FP64峰值性能約為2.3 exaflops,比Frontier超級計算機的1.68 exaflops性能高出約37%。

同時,人工智能AI)應用掀起,超大規(guī)模云服務企和AI初創(chuàng)企業(yè)都開始構建大型數(shù)據(jù)中心,比如,NVIDIA和CoreWeave正在為Inflection AI開發(fā)數(shù)據(jù)中心;Microsoft Azure正在為OpenAI構建的數(shù)據(jù)中心。從下圖可以看出,目前在建的這兩個AI數(shù)據(jù)中心在TFLOPS算力性能上雖然不如現(xiàn)有的超級計算機,但是在成本上已經(jīng)超出很多。

wKgZomS0o3WAcF1_AAqzKgfquTo13.webp

圖注:超級計算機與AI數(shù)據(jù)中心對比(來源:nextplatform網(wǎng)站)

AI數(shù)據(jù)中心面向AI訓練和推理進行配置,在建的AI數(shù)據(jù)中心進程如何?使用了哪些處理器?

Inflection AI使用處理器:NVIDIA H100Inflection AI是一家由Deep Mind前負責人創(chuàng)建,并由Microsoft和Nvidia支持的新創(chuàng)業(yè)公司。目前估值約為40億美元,產(chǎn)品為AI聊天機器人,支持計劃、調度和信息收集。

在籌集了13億美元的資金之后,Inflection AI將建立一個由多達22000個NVIDIA H100 GPU驅動的超級計算機集群,其峰值理論計算能力將與Frontier相當。理論上能夠提供1.474 exaflops的FP64性能。在CUDA內(nèi)核上運行通用FP64代碼時,峰值吞吐量僅為其一半:0.737 FP64 exaflops(與前文圖表數(shù)值略有出入,但相差不大)。雖然FP64性能對于許多科學工作負載很重要,但對于面向AI的任務,該系統(tǒng)可能會更快。FP16/BF16的峰值吞吐量為43.5 exaflops,F(xiàn)P8吞吐量的峰值吞吐量是87.1 exaflops。

圖片來源:NVIDIA

Inflection AI的服務器集群成本尚不清楚,但NVIDIA H100 GPU零售價超過30000美元,預計該集群的GPU成本將達到數(shù)億美元。加上所有機架服務器和其他硬件,將占13億美元資金的大部分。

在市場需求遠遠超過供應的情況下,NVIDIA或AMD不會為其GPU計算引擎給予大幅折扣就,其服務器OEM和ODM合作伙伴同樣如此。因此,與美國的百億億次高性能計算系統(tǒng)相比,這些設備非常昂貴。Inflection AI的FP16半精度性能為21.8 exaflops,足以驅動一些非常大的LLM和DLRM(大型語言模型和深度學習推薦模型)。

El Capitan使用處理器:AMD Instinct MI300A為超級計算機“El Capitan”提供算力的處理器是“Antares”AMD Instinct MI300A CPU-GPU混合體,其FP16矩陣數(shù)學性能仍然未知。

wKgZomS0o3aAJ_eFAAgqMM3KNEw45.webp

圖注:基于AMD MI300的刀片設施(來源:http://tomshardware.com

Instinct MI300是一款數(shù)據(jù)中心APU,它混合了總共13個chiplet,其中許多是3D堆疊的,形成一個單芯片封裝,其中包含24個Zen 4 CPU內(nèi)核,融合CDNA 3圖形引擎和八個總容量為128GB的HBM3內(nèi)存堆棧。這個芯片擁有1460億個晶體管,使其成為AMD投入生產(chǎn)的最大芯片。其中,由9個計算die構成的5nm CPU和GPU混合體,在4個6nm die上進行3D堆疊,這4個die主要處理內(nèi)存和I/O流量。

預計每個MI300A在2.32 GHz時鐘頻率下可提供784 teraflops性能,常規(guī)MI300的時鐘頻率約為1.7GHz?;萜展荆℉PE)或許在El Capitan系統(tǒng)中為每個滑軌配置8個MI300A,El Capitan的計算部分應該有大約2931個節(jié)點、46個機柜和8行設備?;谏鲜霾聹y,El Capitan應該有大約23500個MI300 GPU,具備大約18.4 exaflops的FP16矩陣數(shù)學峰值性能。相比Inflection AI,用更少的錢,發(fā)揮出更大性能。

Microsoft/OpenAI使用處理器:NVIDIA H100傳聞Microsoft正在為OpenAI構建25000 GPU集群,用于訓練GPT-5。

從歷史上看,Microsoft Azure使用PCI-Express版本的NVIDIA加速器構建其HPC和AI集群,并使用InfiniBand網(wǎng)絡將它們連接在一起。

為OpenAI構建的集群使用NVIDIA H100 PCI-Express板卡,假設為每個20000美元,即5億美元。另外,使用英特爾“Sapphire Rapids”至強SP主機處理器、2TB的主內(nèi)存和合理數(shù)量的本地存儲,每個節(jié)點再增加150000美元,這將為容納這25000個GPU的3125個節(jié)點再增加4.69億美元。InfiniBand網(wǎng)絡將增加2.42億美元。合計12.1億美元,這些費用要比國家實驗室的超級計算機貴很多。

全球超級計算機追求新穎的架構,為最終商業(yè)化而進行研發(fā)。超大規(guī)模云服務商可以做同樣的數(shù)學運算,構建自己的計算引擎,包括亞馬遜網(wǎng)絡服務、谷歌、百度和Facebook都是如此。即使有50%的折扣,諸如Inflection AI和OpenAI的設備單位價格仍然比國家實驗室為超級計算機昂貴。

“神威·太湖之光”使用處理器:申威26010以2022年的全球超級計算機榜單來看,進入Top10的我國超級計算機是“神威·太湖之光”。資料顯示,該計算機安裝了40960個中國自主研發(fā)的申威26010眾核處理器,采用64位自主神威指令系統(tǒng),峰值性能為12.5億億次每秒,持續(xù)性能為9.3億億次每秒,核心工作頻率1.5GHz。

申威和龍芯目前是我國自研處理器的代表,兩者均采用自研處理器的指令集架構。CPU國產(chǎn)化目前有3種方式,一個是獲得x86內(nèi)核授權,一個是獲得Arm指令集架構授權,另一種是自研指令集架構,這種方式的安全可控程度較高,也是自主化較為徹底的一種方式。

wKgaomS0o3aAKjaPAAC8Au-mzr868.webp

圖注:國內(nèi)服務器處理器廠商

小 結隨著人工智能應用發(fā)酵,超級計算機與AI數(shù)據(jù)中心的界限可能變得模糊,兩者的硬件和架構已經(jīng)發(fā)展到可以更快地處理更多數(shù)據(jù),因此其配置將會逐步超越,芯查查認為,整體呈現(xiàn)為幾點趨勢:面向AI應用,高性能處理器采用更多核心、異質架構將更加普遍,以支持更多的并行計算和更快的數(shù)據(jù)處理速度,處理器的內(nèi)存管理和緩存設計也得到了優(yōu)化,以減少對主存儲器的訪問延遲。專門的加速器,比如圖形處理單元(GPU)和神經(jīng)網(wǎng)絡處理單元(NPU),將被引入處理器,高效地執(zhí)行矩陣計算和神經(jīng)網(wǎng)絡。能效是AI數(shù)據(jù)中心和超級計算機共同難點,處理器能效成為要點,設計趨向于降低功耗和散熱需求,采用更先進的制程技術、優(yōu)化的電源管理以及動態(tài)頻率調節(jié)等方法。AI數(shù)據(jù)中心和超級計算機建設的需求推動了處理器的發(fā)展,也推動了存儲、結構和GPU的進步,這些組件都將服務于系統(tǒng)的數(shù)據(jù)吞吐量和效率。


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)中心

    關注

    16

    文章

    4587

    瀏覽量

    71819
  • AI
    AI
    +關注

    關注

    87

    文章

    29435

    瀏覽量

    267747
收藏 人收藏

    評論

    相關推薦

    AMD全新處理器擴大數(shù)據(jù)中心CPU的領先地位

    在Computex 2024 開幕主題演講上,AMD 詳細介紹了全新的 CPU、NPU 和 GPU 領先架構,為從數(shù)據(jù)中心到個人電腦的端到端 AI 基礎架構帶來強大力。
    的頭像 發(fā)表于 09-19 11:01 ?416次閱讀

    NVIDIA 在 Hot Chips 大會展示提升數(shù)據(jù)中心性能和能效的創(chuàng)新技術

    NVIDIA Blackwell 平臺提供動力的最新技術進展,以及新的數(shù)據(jù)中心液冷研究成果和用于芯片設計的 AI 代理。 他們
    的頭像 發(fā)表于 08-28 16:38 ?268次閱讀
    <b class='flag-5'>NVIDIA</b> 在 Hot Chips 大會展示提升<b class='flag-5'>數(shù)據(jù)中心</b>性能和能效的創(chuàng)新技術

    AI時代,我們需要怎樣的數(shù)據(jù)中心?AI重新定義數(shù)據(jù)中心

    超過60%的中國企業(yè)計劃在未來12至24個月內(nèi)部署生成式人工智能。AI、模型的構建,將顛覆數(shù)據(jù)中心基礎設施的建設、運維和運營。一個全新的數(shù)據(jù)中心智能化時代已經(jīng)拉開序幕。
    發(fā)表于 07-16 11:33 ?536次閱讀
    <b class='flag-5'>AI</b>時代,我們需要怎樣的<b class='flag-5'>數(shù)據(jù)中心</b>?<b class='flag-5'>AI</b>重新定義<b class='flag-5'>數(shù)據(jù)中心</b>

    數(shù)據(jù)中心、智中心中心,有何區(qū)別?

    數(shù)據(jù)中心、智中心中心是當前計算機領域中比較重要的研究方向,三者雖然都屬于
    的頭像 發(fā)表于 06-22 08:27 ?4000次閱讀
    云<b class='flag-5'>數(shù)據(jù)中心</b>、智<b class='flag-5'>算</b><b class='flag-5'>中心</b>、<b class='flag-5'>超</b><b class='flag-5'>算</b><b class='flag-5'>中心</b>,有何區(qū)別?

    AMD推出全新AMD銳龍和EPYC處理器,擴大數(shù)據(jù)中心和PC領域領先地位

    ——下一代?AMD EPYC?處理器將擴大數(shù)據(jù)中心?CPU?的領先地位 ——全新?AMD?銳龍?AI 300?系列筆記本電腦和?AMD?銳龍
    的頭像 發(fā)表于 06-04 19:21 ?920次閱讀
    <b class='flag-5'>AMD</b>推出全新<b class='flag-5'>AMD</b>銳龍和EPYC處理器,擴大<b class='flag-5'>數(shù)據(jù)中心</b>和PC領域領先地位

    NVIDIA為新工業(yè)革命打造 AI 工廠和數(shù)據(jù)中心

    搭載 Grace CPU 以及 NVIDIA 網(wǎng)絡和基礎設施,助力于企業(yè)建立 AI 工廠和數(shù)據(jù)中心,推動新一輪生成式 AI 突破。 NVIDIA
    的頭像 發(fā)表于 06-03 18:14 ?911次閱讀

    八大科技巨頭攜手推進UALink,加速數(shù)據(jù)中心AI互聯(lián)

    近日,英特爾、Google、微軟、Meta等八家科技巨頭宣布共同成立加速器鏈接(UALink)推廣小組,致力于推動數(shù)據(jù)中心內(nèi)AI加速器芯片的連接組件發(fā)展。UALink旨在優(yōu)化數(shù)據(jù)中心
    的頭像 發(fā)表于 05-31 10:59 ?730次閱讀

    千億美元打造一個系統(tǒng),成本越來越高的AI

    和OpenAI合作,打造一個千億美元級別的系統(tǒng)。 ? 千億美元打造 AI ? 根據(jù)外媒報道,此次打造的千億美元
    的頭像 發(fā)表于 04-09 00:19 ?2976次閱讀

    #mpo極性 #數(shù)據(jù)中心mpo

    數(shù)據(jù)中心MPO
    jf_51241005
    發(fā)布于 :2024年04月07日 10:05:13

    一圖看懂星河AI數(shù)據(jù)中心網(wǎng)絡,全面釋放AI時代

    華為中國合作伙伴大會 | 一圖看懂星河AI數(shù)據(jù)中心網(wǎng)絡,以網(wǎng)強,全面釋放AI時代
    的頭像 發(fā)表于 03-22 10:28 ?658次閱讀
    一圖看懂星河<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>網(wǎng)絡,全面釋放<b class='flag-5'>AI</b>時代<b class='flag-5'>算</b>力

    CloudFabric3.0融合數(shù)據(jù)中心網(wǎng)絡全新升級,攜手共筑力新聯(lián)接

    在華為中國合作伙伴大會2024期間,華為舉辦了以“融合數(shù)據(jù)中心網(wǎng)絡,攜手共筑力新聯(lián)接”為主題的數(shù)據(jù)中心網(wǎng)絡分論壇。
    的頭像 發(fā)表于 03-19 09:18 ?743次閱讀

    淺談云數(shù)據(jù)中心、智算數(shù)據(jù)中心、數(shù)據(jù)中心區(qū)別,分布式電源是趨勢

    數(shù)據(jù)中心、智算數(shù)據(jù)中心數(shù)據(jù)中心三者區(qū)別,分布式電源是趨勢 大家都在聊云數(shù)據(jù)中心、智算數(shù)據(jù)中心
    的頭像 發(fā)表于 11-29 14:20 ?1841次閱讀
    淺談云<b class='flag-5'>數(shù)據(jù)中心</b>、智算<b class='flag-5'>數(shù)據(jù)中心</b>、<b class='flag-5'>超</b>算<b class='flag-5'>數(shù)據(jù)中心</b>區(qū)別,分布式電源是趨勢

    時代:數(shù)據(jù)中心為什么要選用鎳氫電池?

    在智時代背景下,數(shù)據(jù)中心高功率密度和高彈性需求成為了亟待解決的問題。智中心作為信息基礎設施的核心,承擔著海量數(shù)據(jù)的處理、存儲和傳輸任務,
    的頭像 發(fā)表于 11-24 16:44 ?783次閱讀
    智<b class='flag-5'>算</b>時代:<b class='flag-5'>數(shù)據(jù)中心</b>為什么要選用鎳氫電池?

    適用于數(shù)據(jù)中心AI 時代的網(wǎng)絡

    十多年來,傳統(tǒng)的云數(shù)據(jù)中心一直是計算基礎設施的基石,滿足了各種用戶和應用程序的需求。然而,近年來,為了跟上技術的進步和對 AI 驅動的計算需求的激增,數(shù)據(jù)中心進行了發(fā)展。 本文探討了網(wǎng)絡在塑造
    的頭像 發(fā)表于 10-27 20:05 ?492次閱讀
    適用于<b class='flag-5'>數(shù)據(jù)中心</b>和 <b class='flag-5'>AI</b> 時代的網(wǎng)絡

    HNS 2023 | 華為數(shù)據(jù)中心網(wǎng)絡軟硬實力全新升級,賦AI時代新動能

    [德國,慕尼黑,2023年10月26日]華為數(shù)通創(chuàng)新峰會2023歐洲站期間,主題為“CloudFabric3.0,融合數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”的數(shù)據(jù)中心網(wǎng)絡分論壇備受矚目,來
    的頭像 發(fā)表于 10-27 19:35 ?507次閱讀
    HNS 2023 | 華為<b class='flag-5'>數(shù)據(jù)中心</b>網(wǎng)絡軟硬實力全新升級,賦<b class='flag-5'>AI</b>時代新動能