0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用NVIDIA H100 CNX構(gòu)建人工智能系統(tǒng)

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:About Charu Chaubal ? 2022-03-31 14:49 ? 次閱讀

人們對(duì)能夠以更快的速度將數(shù)據(jù)從網(wǎng)絡(luò)傳輸?shù)?GPU 的服務(wù)器的需求不斷增加。隨著人工智能模型不斷變大,訓(xùn)練所需的數(shù)據(jù)量需要多節(jié)點(diǎn)訓(xùn)練等技術(shù)才能在合理的時(shí)間范圍內(nèi)取得成果。 5G信號(hào)處理比前幾代更復(fù)雜, GPU 可以幫助提高這種情況發(fā)生的速度。機(jī)器人傳感器等設(shè)備也開(kāi)始使用 5G 與邊緣服務(wù)器通信,以實(shí)現(xiàn)基于人工智能的決策和行動(dòng)。

專(zhuān)門(mén)構(gòu)建的人工智能系統(tǒng),比如最近發(fā)布的 NVIDIA DGX H100 ,是專(zhuān)門(mén)為支持?jǐn)?shù)據(jù)中心用例的這些需求而設(shè)計(jì)的?,F(xiàn)在,另一種新產(chǎn)品可以幫助企業(yè)獲得更快的數(shù)據(jù)傳輸和更高的邊緣設(shè)備性能,但不需要高端或定制系統(tǒng)。

NVIDIA 首席執(zhí)行官 Jensen Huang 上周在 NVIDIA 公司 GTC 宣布, NVIDIA H100 CNX 是一個(gè)高性能的企業(yè)包。它結(jié)合了 NVIDIA H100 的能力與 NVIDIA ConnectX-7 SmartNIC 先進(jìn)的網(wǎng)絡(luò)能力。這種先進(jìn)的體系結(jié)構(gòu)在 PCIe 板上提供,為主流數(shù)據(jù)中心和邊緣系統(tǒng)的 GPU 供電和 I / O 密集型工作負(fù)載提供了前所未有的性能。

H100 CNX 的設(shè)計(jì)優(yōu)勢(shì)

在標(biāo)準(zhǔn) PCIe 設(shè)備中,控制平面和數(shù)據(jù)平面共享相同的物理連接。然而,在 H100 CNX 中, GPU 和網(wǎng)絡(luò)適配器通過(guò)直接 PCIe Gen5 通道連接。這為 GPU 和使用 GPUDirect RDMA 的網(wǎng)絡(luò)之間的數(shù)據(jù)傳輸提供了專(zhuān)用的高速路徑,并消除了通過(guò)主機(jī)的數(shù)據(jù)瓶頸。

通過(guò)將 GPU 和 SmartNIC 組合在一塊板上,客戶可以利用 PCIe Gen4 甚至 Gen3 上的服務(wù)器。通過(guò)高端或?qū)iT(mén)構(gòu)建的系統(tǒng)實(shí)現(xiàn)一次性能水平可以節(jié)省硬件成本。將這些組件放在一塊物理板上也可以提高空間和能源效率。

將 GPU 和 SmartNIC 集成到單個(gè)設(shè)備中,通過(guò)設(shè)計(jì)創(chuàng)建了一個(gè)平衡的體系結(jié)構(gòu)。在具有多個(gè) GPU 和 NIC 的系統(tǒng)中,聚合加速卡強(qiáng)制 GPU 與 NIC 的比例為 1:1 。這避免了服務(wù)器 PCIe 總線上的爭(zhēng)用,因此性能會(huì)隨著附加設(shè)備線性擴(kuò)展。

NVIDIA 的核心加速軟件庫(kù)(如 NCCL 和 UCX )自動(dòng)利用性能最佳的路徑將數(shù)據(jù)傳輸?shù)?GPU ?,F(xiàn)有的加速多節(jié)點(diǎn)應(yīng)用程序可以在不做任何修改的情況下利用 H100 CNX ,因此客戶可以立即從高性能和可擴(kuò)展性中受益。

H100 CNX 用例

H100 CNX 提供 GPU 加速,同時(shí)具有低延遲和高速網(wǎng)絡(luò)。這是在較低的功耗下完成的,與兩個(gè)分立的卡相比,占用空間更小,性能更高。許多用例可以從這種組合中受益,但以下幾點(diǎn)尤其值得注意。

5G 信號(hào)處理

使用 GPU 進(jìn)行 5G 信號(hào)處理需要盡快將數(shù)據(jù)從網(wǎng)絡(luò)移動(dòng)到 GPU ,并且具有可預(yù)測(cè)的延遲也是至關(guān)重要的。 NVIDIA 聚合加速器與 NVIDIA Aerial SDK 相結(jié)合,為運(yùn)行 5G 應(yīng)用程序提供了性能最高的平臺(tái)。由于數(shù)據(jù)不經(jīng)過(guò)主機(jī) PCIe 系統(tǒng),因此處理延遲大大減少。在使用速度較慢的 PCIe 系統(tǒng)的商品服務(wù)器時(shí),甚至可以看到這種性能的提高。

加速 5G 以上的邊緣人工智能

NVIDIA AI on 5G 由 NVIDIA EGX 企業(yè)平臺(tái)、 NVIDIA 公司的 SDK 軟件定義的 5G 虛擬無(wú)線局域網(wǎng)和企業(yè) AI 框架組成。這包括像 NVIDIA ISAAC 和 NVIDIA Metropolis 這樣的 SDK 。攝像機(jī)、工業(yè)傳感器和機(jī)器人等邊緣設(shè)備可以使用人工智能,并通過(guò) 5G 與服務(wù)器通信。

H100 CNX 可以在單個(gè)企業(yè)服務(wù)器中提供此功能,而無(wú)需部署昂貴的專(zhuān)用系統(tǒng)。與NVIDIA 多實(shí)例 GPU 技術(shù)相比,應(yīng)用于 5G 信號(hào)處理的相同加速器可用于邊緣 AI 。這使得共享 GPU 用于多種不同目的成為可能。

多節(jié)點(diǎn)人工智能訓(xùn)練

多節(jié)點(diǎn)培訓(xùn)涉及不同主機(jī)上 GPU 之間的數(shù)據(jù)傳輸。在一個(gè)典型的數(shù)據(jù)中心網(wǎng)絡(luò)中,服務(wù)器通常會(huì)在性能、規(guī)模和密度方面受到各種限制。大多數(shù)企業(yè)服務(wù)器不包括 PCIe 交換機(jī),因此 CPU 成為這種流量的瓶頸。數(shù)據(jù)傳輸受主機(jī) PCIe 背板的速度限制。雖然 GPU:NIC 的比例為 1:1 是理想的,但服務(wù)器中 PCIe 通道和插槽的數(shù)量可能會(huì)限制設(shè)備的總數(shù)。

H100 CNX 的設(shè)計(jì)緩解了這些問(wèn)題。從網(wǎng)絡(luò)到 GPU 有一條專(zhuān)用路徑,供 GPUDirect RDMA 以接近線路速度運(yùn)行。無(wú)論主機(jī) PCIe 背板如何,數(shù)據(jù)傳輸也會(huì)以 PCIe Gen5 的速度進(jìn)行。主機(jī)內(nèi) GPU 功率的放大可以以平衡的方式進(jìn)行,因?yàn)?GPU:NIC 的比例是 1:1 。服務(wù)器還可以配備更多的加速能力,因?yàn)榕c離散卡相比,聚合加速器所需的 PCIe 通道和設(shè)備插槽更少。

NVIDIA H100 CNX 預(yù)計(jì)可在今年下半年購(gòu)買(mǎi)。如果你有一個(gè)用例可以從這個(gè)獨(dú)特而創(chuàng)新的產(chǎn)品中受益,請(qǐng)聯(lián)系你最喜歡的系統(tǒng)供應(yīng)商,詢問(wèn)他們計(jì)劃何時(shí)將其與服務(wù)器一起提供。

關(guān)于作者:About Charu Chaubal

Charu Chaubal 在NVIDIA 企業(yè)計(jì)算平臺(tái)集團(tuán)從事產(chǎn)品營(yíng)銷(xiāo)工作。他在市場(chǎng)營(yíng)銷(xiāo)、客戶教育以及技術(shù)產(chǎn)品和服務(wù)的售前工作方面擁有 20 多年的經(jīng)驗(yàn)。 Charu 曾在云計(jì)算、超融合基礎(chǔ)設(shè)施和 IT 安全等多個(gè)領(lǐng)域工作。作為 VMware 的技術(shù)營(yíng)銷(xiāo)領(lǐng)導(dǎo)者,他幫助推出了許多產(chǎn)品,這些產(chǎn)品共同發(fā)展成為數(shù)十億美元的業(yè)務(wù)。此前,他曾在 Sun Microsystems 工作,在那里他設(shè)計(jì)了分布式資源管理和 HPC 基礎(chǔ)設(shè)施軟件解決方案。查魯擁有化學(xué)工程博士學(xué)位,并擁有多項(xiàng)專(zhuān)利。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236591
  • 5G
    5G
    +關(guān)注

    關(guān)注

    1352

    文章

    48265

    瀏覽量

    562573
  • H100
    +關(guān)注

    關(guān)注

    0

    文章

    31

    瀏覽量

    273
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)發(fā)布新一代H200,搭載HBM3e,推理速度是H100兩倍!

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,英偉達(dá)正式宣布,在目前最強(qiáng)AI芯片H100的基礎(chǔ)上進(jìn)行一次大升級(jí),發(fā)布新一代H200芯片。H200擁有141GB的內(nèi)存、4.8TB/秒的帶寬,并將與H100
    的頭像 發(fā)表于 11-15 01:15 ?3295次閱讀
    英偉達(dá)發(fā)布新一代<b class='flag-5'>H</b>200,搭載HBM3e,推理速度是<b class='flag-5'>H100</b>兩倍!

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    的發(fā)展機(jī)遇。同時(shí),這也要求科研人員、政策制定者和社會(huì)各界共同努力,構(gòu)建一個(gè)健康、包容的AI科研生態(tài)系統(tǒng)。 總之,《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》的第一章為我打開(kāi)了一個(gè)全新的視角,讓我
    發(fā)表于 10-14 09:12

    首批1024塊H100 GPU,正崴集團(tuán)將建中國(guó)臺(tái)灣最大AI計(jì)算中心

    中國(guó)臺(tái)灣當(dāng)?shù)卣思瘓F(tuán)5月27日宣布,將與日本公司Ubitus共同打造人工智能(AI)計(jì)算中心,其中第一期將導(dǎo)入128個(gè)機(jī)柜,共計(jì)1024張英偉達(dá)H100旗艦計(jì)算卡,旨在構(gòu)建臺(tái)灣最大的AI計(jì)算中心。
    的頭像 發(fā)表于 05-29 10:05 ?912次閱讀

    德克薩斯大學(xué)將創(chuàng)建一個(gè)學(xué)術(shù)界最強(qiáng)大的生成性人工智能研究中心

    近日,美國(guó)德克薩斯大學(xué)宣稱(chēng)他們將創(chuàng)建一個(gè)學(xué)術(shù)界最強(qiáng)大的生成性人工智能(AI)研究中心,該中心將配備600個(gè)Nvidia H100 GPU用于AI模型的訓(xùn)練,該計(jì)算機(jī)集群被命名為Vista,目前由德克薩斯高級(jí)計(jì)算中心(TACC)負(fù)
    的頭像 發(fā)表于 05-28 09:06 ?651次閱讀

    英特爾發(fā)布人工智能芯片新版,對(duì)標(biāo)Nvidia

    為應(yīng)對(duì)AI行業(yè)對(duì)高性能芯片的巨大需求,英特爾推出了全新Gaudi 3芯片,據(jù)稱(chēng)這一款芯片在訓(xùn)練大語(yǔ)言模型方面的速度較之NVIDIA最新H100處理器要快50%。而且,其推理運(yùn)算速度也超過(guò)了部分H100芯片。
    的頭像 發(fā)表于 04-10 09:26 ?311次閱讀

    英偉達(dá)H200和H100的比較

    英偉達(dá)H200和H100是兩款不同的AI芯片,它們各自具有獨(dú)特的特點(diǎn)和優(yōu)勢(shì)。以下是關(guān)于這兩款芯片的一些比較。
    的頭像 發(fā)表于 03-07 15:53 ?3815次閱讀

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時(shí)代背景下,嵌入式人工智能成為國(guó)家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級(jí)的核心驅(qū)動(dòng)力。同時(shí)在此背景驅(qū)動(dòng)下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    Meta計(jì)劃至2024年末購(gòu)買(mǎi)35萬(wàn)張H100加速卡

    扎克伯格并未披露BIN為應(yīng)對(duì)日益增加的人工智能需求添購(gòu)的具體數(shù)量。市場(chǎng)研究機(jī)構(gòu)雷蒙德詹姆斯的分析師根據(jù)推測(cè),每顆H100系列芯片單價(jià)可能在2.5萬(wàn)至3萬(wàn)美金之間,若按照最低標(biāo)準(zhǔn)計(jì)算,購(gòu)置成本將超過(guò)10億美金。
    的頭像 發(fā)表于 01-19 10:25 ?655次閱讀

    谷歌TPU v5p超越Nvidia H100,成為人工智能領(lǐng)域的競(jìng)爭(zhēng)對(duì)手

    TPU v5p已在谷歌“AI超級(jí)計(jì)算機(jī)”項(xiàng)目中發(fā)揮重要作用,這并非專(zhuān)業(yè)科研型超算平臺(tái),而是面向各類(lèi)人工智能應(yīng)用。與Nvidia開(kāi)放GPU購(gòu)買(mǎi)策略不同,谷歌高端TPU主要供自家產(chǎn)品和服務(wù)運(yùn)用。
    的頭像 發(fā)表于 12-26 15:20 ?1870次閱讀

    英偉達(dá)H100,沒(méi)那么缺貨了 !RTX 4090 ,大漲

    這樣,在云端使用 H100 GPU 的排隊(duì)時(shí)間可能會(huì)縮短。數(shù)據(jù)中心提供商和前比特幣挖礦公司正在開(kāi)設(shè)具有 H100 集群的數(shù)據(jù)中心。這些公司承諾以大型云提供商成本的一小部分提供 H100 GPU 計(jì)算,而大型云提供商對(duì)
    的頭像 發(fā)表于 11-23 15:59 ?1565次閱讀

    英偉達(dá)推出用于人工智能工作的頂級(jí)芯片HGX H200

    備受矚目的人工智能領(lǐng)域,英偉達(dá)提到,H200將帶來(lái)進(jìn)一步的性能飛躍。在Llama 2(700億參數(shù)的LLM)上的推理速度比H100快了一倍。未來(lái)的軟件更新預(yù)計(jì)會(huì)給H200帶來(lái)額外的性能
    的頭像 發(fā)表于 11-15 14:34 ?1384次閱讀

    英偉達(dá)特供版芯片將上市:性能最高不到H100的20%

    本周四,一些媒體首次報(bào)道了英偉達(dá)特供芯片的消息。報(bào)道稱(chēng),這三款新產(chǎn)品是在 H100 GPU 的基礎(chǔ)版本基礎(chǔ)上進(jìn)行修改的,采用的是最新架構(gòu),但性能大幅度縮減。H100 GPU 是一種用于人工智能訓(xùn)練的高端 GPU,已于 2022
    的頭像 發(fā)表于 11-13 16:44 ?867次閱讀
    英偉達(dá)特供版芯片將上市:性能最高不到<b class='flag-5'>H100</b>的20%

    揭秘:英偉達(dá)H100最強(qiáng)替代者

    目前,用于高端推理的 GPU 主要有三種:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我們將跳過(guò)
    的頭像 發(fā)表于 11-13 16:13 ?1444次閱讀
    揭秘:英偉達(dá)<b class='flag-5'>H100</b>最強(qiáng)替代者

    傳英偉達(dá)新AI芯片H20綜合算力比H100降80%

    但據(jù)悉,三種新型AI芯片不是“改良型”,而是“縮小型”。用于ai模型教育的hgx h20的帶寬和計(jì)算速度是有限的。整體計(jì)算能力理論上比nvidiah100 gpu芯片低80%左右。h
    的頭像 發(fā)表于 11-13 09:41 ?1578次閱讀

    英偉達(dá)H100的最強(qiáng)替代者

    首先,我們首先要說(shuō)的是,如果您現(xiàn)在想要訓(xùn)練基礎(chǔ)模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首選 GPU。一旦基礎(chǔ)模型經(jīng)過(guò)訓(xùn)練,通??梢栽诔杀竞凸娘@著降低的部件上根據(jù)特定領(lǐng)域的數(shù)據(jù)或推理來(lái)定制模型。
    的頭像 發(fā)表于 11-08 15:35 ?937次閱讀
    英偉達(dá)<b class='flag-5'>H100</b>的最強(qiáng)替代者