0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)又推超級芯片!新一代GH200 Grace Hopper超級芯片炸場

傳感器技術(shù) ? 來源:芯師爺 ? 2023-08-10 10:46 ? 次閱讀

北京時間8月8日23:00,在全球首屈一指的計算機(jī)圖形和交互技術(shù)會議SIGGRAPH上,英偉達(dá)CEO黃仁勛一襲黑皮衣,以雷霆萬鈞之勢再度登臺,對臺下數(shù)千名觀眾表示,“生成式人工智能時代即將到來,如果你相信的話,那就是人工智能的iPhone時代。”

在隨后近一個半小時的演講中,黃仁勛宣布了英偉達(dá)的最新技術(shù)突破:

硬件方面,黃仁勛推出了新一代GH200 Grace Hopper超級芯片,將搭載全球首款HBM3e處理器,預(yù)計于2024年第二季投產(chǎn),專為加速計算和生成式 AI 時代而打造。同時,還重磅發(fā)布了功能強(qiáng)大的新型RTX工作站、三款全新桌面工作站Ada Generation GPU,以及搭載全新NVIDIA L40S GPU的全新 NVIDIA OVX服務(wù)器。

軟件方面,為了推動人工智能部署,英偉達(dá)推出了AI Workbench、AI Enterprise 4.0,以及Hugging Face等重磅武器,旨在和行業(yè)攜手,一同推動人工智能和生成式AI走向下一個浪潮尖峰。

新一代 GH200 Grace Hopper 超級芯片炸場

通常,使用人工智能模型的過程至少分為兩個部分:訓(xùn)練和推理。訓(xùn)練部分,是使用大量數(shù)據(jù)來訓(xùn)練人工智能系統(tǒng),開發(fā)出具有特定功能的神經(jīng)網(wǎng)絡(luò)模型,動輒需要耗費數(shù)月時間才能完成;推理部分,則是將新的數(shù)據(jù)輸入訓(xùn)練好的模型,讓它推理出各種結(jié)論,并且?guī)缀醭掷m(xù)進(jìn)行。 這兩個環(huán)節(jié)都需要高性能GPU進(jìn)行支持,如果支持不到位的話,將影響大模型的精準(zhǔn)度。

為了持續(xù)推動AI發(fā)展,早在2022年初,英偉達(dá)宣布了Grace Hopper超級芯片,即NVIDIA GH200,它將72核Grace CPU與Hopper GPU相結(jié)合,提供1 EFLOPS的AI算力和144TB的高速存儲,并于今年 5 月全面投產(chǎn)。

昨晚的SIGGRAPH大會上,也就是在這款超級芯片全面投產(chǎn)后不到三個月,英偉達(dá)推出了功能更強(qiáng)大的芯片版本——新一代NVIDIA GH200 Grace Hopper超級芯片,將提供卓越的內(nèi)存技術(shù)和帶寬,以此提高吞吐量,提升無損耗連接GPU聚合性能的能力,并且擁有可以在整個數(shù)據(jù)中心輕松部署的服務(wù)器設(shè)計。

“你幾乎可以在GH200上運行任何你想要的大型語言模型,它會瘋狂地進(jìn)行推理?!秉S仁勛說,“大型語言模型的推理成本將大幅下降?!?/p>

與當(dāng)前一代產(chǎn)品相比,新一代GH200擁有基本相同的“基因”:其 72 核 Arm Neoverse V2 Grace CPU、Hopper GPU 及其 900GB/秒 NVLink-C2C 互連均保持不變。核心區(qū)別是它搭載了全球第一款HBM3e內(nèi)存,將不再配備今年春季型號的 96GB HBM3 vRAM 和 480GB LPDDR5x DRAM,而是搭載500GB的LPDDR5X以及141GB的HBM3e存儲器,實現(xiàn)了5TB/秒的數(shù)據(jù)吞吐量。

6eb6c9a4-3709-11ee-9e74-dac502259ad0.png

HBM3內(nèi)存 VS HBM3e內(nèi)存參數(shù)對比

英偉達(dá)表示,HBM3e內(nèi)存技術(shù)帶來了50%的速度提升,總共提供了10TB/秒的組合帶寬。能夠運行比先前版本大3.5倍的模型,并以3倍的內(nèi)存帶寬提高性能

此外,英偉達(dá)目前正在開發(fā)一款新的雙GH200基礎(chǔ)NVIDIA MGX服務(wù)器系統(tǒng),將集成兩個下一代Grace Hopper超級芯片。在新的雙GH200服務(wù)器中,系統(tǒng)內(nèi)的CPU和GPU將通過完全一致的內(nèi)存互連進(jìn)行連接,這個超級GPU可以作為一個整體運行,提供144個Grace CPU核心、8千萬億次的計算性能以及282GB的HBM3e內(nèi)存,從而能夠適用于生成式AI的巨型模型。

對于企業(yè)客戶,英偉達(dá)GPU訓(xùn)練AI模型成本已非常昂貴,但黃仁勛仍強(qiáng)調(diào)其產(chǎn)品的“性價比”:同樣使用1億美元打造數(shù)據(jù)中心,可以購得8800塊x86處理器或2500套GH200,但后者的AI推理性能是前者的12倍,能效達(dá)20倍。

于是我們又聽到了黃仁勛“金牌導(dǎo)購”的名言:the more you buy, the more you save(買的越多,省的越多)。

據(jù)悉,英偉達(dá)計劃銷售GH200的兩種版本:一種是包含兩個可供客戶集成到系統(tǒng)中的芯片,另一種則是結(jié)合了兩種Grace Hopper設(shè)計的完整服務(wù)器系統(tǒng)。

全新的GH200這款產(chǎn)品將于2024年第二季投產(chǎn),售價暫未透露。

四款全新顯卡+新款OVX服務(wù)器:

全方面涵蓋生成式AI開發(fā)

除了適用于前沿大語言模型的GH200 ,英偉達(dá)在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新顯卡,以及搭載全新L40S Ada GPU的新款OVX服務(wù)器。

1

RTX 6000 Ada GPU

為提供更多的計算能力,促進(jìn)生成式AI和數(shù)字化時代的開發(fā)和內(nèi)容創(chuàng)作,英偉達(dá)正在和全球制造商,包括惠普、聯(lián)想、BOXX、戴爾等,推出功能強(qiáng)大的新型 RTX 工作站。

新的RTX工作站提供多達(dá)4個NVIDIA RTX 6000 Ada GPU,每個GPU都配備48GB內(nèi)存(總共 192GB),單個桌面工作站可以提供高達(dá)5.8 TFLOPS 算力。

2

三款全新桌面工作站 GPU

黃仁勛還宣布推出三款全新桌面工作站Ada Generation GPU :NVIDIA RTX 5000、RTX 4500和RTX 4000,旨在為全球?qū)I(yè)人士提供最新的 AI、圖形和實時渲染技術(shù)。

NVIDIA RTX 5000現(xiàn)已上市(售價 4,000 美元),提供32GB GDDR6內(nèi)存,NVIDIA RTX 4500 和 4000 將于今年秋季上市(售價分別為 1,250 美元和 2,250 美元),兩者都是雙槽 GPU,分別提供和24GB GDDR6內(nèi)存、20GB GDDR6內(nèi)存。

3

OVX 服務(wù)器產(chǎn)品

此外,英偉達(dá)還推出了搭載L40S GPU 的 OVX 服務(wù)器產(chǎn)品,每臺服務(wù)器最多可以裝八個L40S GPU,每個GPU有 48GB 內(nèi)存。

對于具有數(shù)十億參數(shù)和多種數(shù)據(jù)模態(tài)的復(fù)雜AI工作負(fù)載,相較于A100 Tensor Core GPU,L40S 能夠?qū)崿F(xiàn)1.2倍的生成式AI推理性能和 1.7 倍的訓(xùn)練性能,旨在滿足AI訓(xùn)練和推理、3D 設(shè)計和可視化、視頻處理和工業(yè)數(shù)字化等計算密集型應(yīng)用的需求。

軟件生態(tài)全方位部署:

讓所有人參與生成AI

除了硬件產(chǎn)品,軟件方面,英偉達(dá)推出了AI Workbench、AI Enterprise 4.0,以及Hugging Face等重磅武器:

AI Workbench是為開發(fā)人員提供了一個統(tǒng)一、易于使用的工具包,將需要用于生成式AI工作的一切打包在一起,主要是為了降低企業(yè)啟動 AI 項目的門檻。大會上,黃仁勛在強(qiáng)調(diào),為了推動AI技術(shù)普惠,必須讓其有可能在幾乎任何地方運行,讓所有人都能參與生成式 AI。因此,AI Workbench將支持在本地機(jī)器上進(jìn)行模型的開發(fā)和部署,而不是云服務(wù)上。

借助它,開發(fā)人員可以只需點擊幾下就可以定制和運行生成式AI。據(jù)稱,包括戴爾、惠普、Lambda、聯(lián)想和Supermicro,都正采用AI Workbench。

AI Enterprise 4.0是英偉達(dá)發(fā)布的最新版企業(yè)軟件平臺,可提供生產(chǎn)就緒型生成式AI工具,使企業(yè)能夠訪問采用生成式AI所需的工具,同時還提供大規(guī)模企業(yè)部署所需的安全性和API穩(wěn)定性。

同時,黃仁勛還宣布英偉達(dá)與擁有 200 萬用戶的初創(chuàng)公司Hugging Face 合作,這將使得數(shù)百萬大型語言模型開發(fā)者和其他高級 AI 應(yīng)用程序開發(fā)人員,能夠輕松實現(xiàn)生成式 AI 超級計算。

開發(fā)人員將能夠在Hugging Face平臺內(nèi)訪問NVIDIA DGX Cloud AI 超級計算,以訓(xùn)練和微調(diào)先進(jìn)的 AI 模型。據(jù)悉,Hugging Face 社區(qū)已分享超過 25 萬個模型和 5 萬個數(shù)據(jù)集。對此,黃仁勛表示,這將是一項全新的服務(wù),將世界上最大的 AI 社區(qū)與世界上最好的訓(xùn)練和基礎(chǔ)設(shè)施連接起來。

寫在最后:

AI的生產(chǎn)力爆炸時代,正在加速到來

隨著英偉達(dá)一個接一個新產(chǎn)品和新服務(wù)的揭曉,我們似乎也看到生成式AI的生產(chǎn)力爆炸時代正在加速到來。

2022年底,ChatGPT問世后,迅速在全世界引起了AI狂潮,在這波狂潮中,英偉達(dá)憑借其數(shù)據(jù)中心GPU的核心技術(shù)優(yōu)勢,成為人工智能芯片市場市場主導(dǎo)者。

如今,全球約90%以上的大模型都在使用英偉達(dá)的GPU芯片,其股價也在今年以來飆升了逾200%,賺了個盆滿缽滿,上市14年后成功躋身萬億美元市值俱樂部。而實現(xiàn)這一目標(biāo),硅谷巨頭們諸如蘋果用了37年、微軟用了33年、亞馬遜用了21年,特斯拉跑得最快,只用了11年。

目前GPU價格仍在上漲,已然成為人工智能基礎(chǔ)設(shè)施的“硬通貨”,海外甚至已有創(chuàng)業(yè)企業(yè)開始利用GPU進(jìn)行抵押融資。

eBay網(wǎng)站顯示,英偉達(dá)旗艦級芯片H100的售價已經(jīng)高達(dá)4.5萬美元(約合人民幣32.37萬元),這較今年4月份4萬美元的價格漲幅超過10%,甚至有賣家標(biāo)價6.5萬美元,而且貨源較上半年也顯著減少。

同時,英偉達(dá)的中國特供版 A800和 H800芯片也遭到了哄搶。有數(shù)據(jù)推算,2022年全年英偉達(dá)數(shù)據(jù)中心GPU在中國的銷售額約為100億元人民幣。而今年春節(jié)后,據(jù)晚點 LatePost報道,擁有云計算業(yè)務(wù)的中國各互聯(lián)網(wǎng)大公司都向英偉達(dá)下了大單。字節(jié)今年向英偉達(dá)訂購了超過10億美元的GPU,另一家大公司的訂單也至少超過10億元人民幣。而僅字節(jié)一家公司今年的訂單可能已接近英偉達(dá)去年在中國銷售的商用GPU總和。

目前,國內(nèi)大模型企業(yè)基本上很難拿得到這些芯片,A800和 H800芯片從原來的12萬人民幣左右,變成了現(xiàn)在是25萬甚至30萬,甚至有高達(dá)50萬一片。

值得注意的是,近日有消息稱,下一代GPT大模型GPT5需要5萬張英偉達(dá)最高配置的H100芯片,全球市場對H100芯片的需求量達(dá)到43萬張,英偉達(dá)的產(chǎn)能可能難以滿足如此大的算力需求。

正如特斯拉CEO馬斯克表示,“英偉達(dá)不會永遠(yuǎn)在大規(guī)模訓(xùn)練和推理芯片市場占據(jù)壟斷地位?!痹绞秋L(fēng)光,競爭對手就越是虎視眈眈,比如就在前不久,AMD剛剛發(fā)布了“大模型專用”的AI芯片MI300X,直接對標(biāo)英偉達(dá)H100,這被業(yè)界視為直接向英偉達(dá)宣戰(zhàn)。

但從本次黃仁勛的演講來看,賽道越來越激烈,英偉達(dá)也絲毫沒有松懈。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19048

    瀏覽量

    228528
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236605
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3686

    瀏覽量

    90522
  • 超級芯片
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    8860
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5763

原文標(biāo)題:GPU被炒到50萬元一顆后,英偉達(dá)又推超級芯片!

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA AI Enterprise榮獲金獎

    NVIDIA AI Enterprise、GH200 Grace Hopper 超級芯片和 Spectrum-X 在 COMPUTEX 20
    的頭像 發(fā)表于 05-29 09:27 ?380次閱讀
    NVIDIA AI Enterprise榮獲金獎

    亞馬遜AWS暫緩采購英偉達(dá)GH200芯片,期待Blackwell更強(qiáng)

    然而,AWS對此予以澄清,稱實際上并未取消任何對英偉達(dá)的訂單。據(jù)其代表解釋,此次從Grace Hopper芯片轉(zhuǎn)向Blackwell
    的頭像 發(fā)表于 05-22 15:05 ?622次閱讀

    亞馬遜未中斷英偉達(dá)訂單,等待Grace Blackwell更強(qiáng)性能

    英國《金融時報》昨日報道稱,亞馬遜AWS已暫停訂購英偉達(dá)最新款“超級芯片Grace Hopper
    的頭像 發(fā)表于 05-22 11:00 ?400次閱讀

    SiPearl更新Rhea1處理器規(guī)格,聚焦HPC與AI推理應(yīng)用

    據(jù)了解,Rhea1處理器將與英偉達(dá)GH200 Grace Hopper超級
    的頭像 發(fā)表于 05-15 11:41 ?301次閱讀

    進(jìn)步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    2024年3月19日,[英偉達(dá)]CEO[黃仁勛]在GTC大會上公布了新一代AI芯片架構(gòu)BLACKWELL,并推出基于該架構(gòu)的超級
    發(fā)表于 05-13 17:16

    美國首個Grace Hopper架構(gòu)超算Venado落地:達(dá)10 exaFLOPS

    超級計算機(jī)是由惠普企業(yè)集團(tuán)(Hewlett Packard Enterprise)打造,其運算能力高達(dá) 10 exaFLOPS,它是美國第款采用英偉達(dá)
    的頭像 發(fā)表于 04-18 14:37 ?353次閱讀

    NVIDIA推出搭載GB200 Grace Blackwell超級芯片的NVIDIA DGX SuperPOD?

    NVIDIA 于太平洋時間 3 月 18 日發(fā)布新一代 AI 超級計算機(jī) —— 搭載 NVIDIA GB200 Grace Blackwell 超級
    的頭像 發(fā)表于 03-21 09:49 ?619次閱讀

    新思科技攜手英偉達(dá):基于加速計算、生成式AI和Omniverse釋放下一代EDA潛能

    將雙方數(shù)十年的合作深入擴(kuò)展到新思科技EDA全套技術(shù)棧 摘要: 新思科技攜手英偉達(dá),將其領(lǐng)先的AI驅(qū)動型電子設(shè)計自動化(EDA)全套技術(shù)棧部署于英偉達(dá)
    發(fā)表于 03-20 13:43 ?208次閱讀
    新思科技攜手<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>:基于加速計算、生成式AI和Omniverse釋放下<b class='flag-5'>一代</b>EDA潛能

    英偉達(dá)發(fā)布新一代AI芯片B200

    在美國加州圣何塞舉辦的英偉達(dá)GTC生態(tài)大會上,英偉達(dá)CEO黃仁勛以一場震撼人心的演講,正式推出了公司的
    的頭像 發(fā)表于 03-20 10:07 ?861次閱讀

    郭明錤解析:英偉達(dá)對GB200期待高,但出貨不樂觀,供應(yīng)商恐受影響

    作為英偉達(dá)的AI芯片巨頭,郭明錤認(rèn)為Grace架構(gòu)應(yīng)用實例的增加將助推英偉達(dá)在AI領(lǐng)域的領(lǐng)先地位
    的頭像 發(fā)表于 03-15 15:20 ?1130次閱讀

    英偉達(dá)計劃拉大GB200與B100/B200規(guī)格差異,以刺激用戶購買GB200

    早些時候,IT之家用張路線圖展示了英偉達(dá)計劃在2024年推出Hopper GH200 GPU,其后將依次推出基于Blackwell的GB
    的頭像 發(fā)表于 03-14 16:36 ?2520次閱讀

    英偉達(dá)斥資預(yù)購HBM3內(nèi)存,為H200超級芯片儲備產(chǎn)能

    據(jù)最新傳聞,英偉達(dá)正在籌劃發(fā)布兩款搭載HBM3E內(nèi)存的新品——包括141GB HBM3E的H200 GPU及GH200超級
    的頭像 發(fā)表于 01-02 09:27 ?663次閱讀

    英偉達(dá)與亞馬遜聯(lián)手打造了臺擁有16384個超級芯片超級計算機(jī)

    ,將下一代英偉達(dá)Grace Hopper Superchips 與亞馬遜云科技的 EFA 強(qiáng)大網(wǎng)絡(luò)、EC2 UltraClusters 的超
    的頭像 發(fā)表于 12-06 16:01 ?682次閱讀

    AWS成為第個提供NVIDIA GH200 Grace Hopper超級芯片的提供商

    2023年的AWS re:Invent大會上,AWS和NVIDIA宣布AWS將成為第個提供NVIDIA GH200 Grace Hopper超級
    的頭像 發(fā)表于 11-30 09:24 ?593次閱讀
    AWS成為第<b class='flag-5'>一</b>個提供NVIDIA <b class='flag-5'>GH200</b> <b class='flag-5'>Grace</b> <b class='flag-5'>Hopper</b><b class='flag-5'>超級</b><b class='flag-5'>芯片</b>的提供商

    英偉達(dá)新一代人工智能(AI)芯片HGX H200

    基于英偉達(dá)的“Hopper”架構(gòu)的H200也是該公司第款使用HBM3e內(nèi)存的芯片,這種內(nèi)存速度
    發(fā)表于 11-15 11:17 ?732次閱讀