0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA在最新AI推理基準(zhǔn)測(cè)試中大獲成功

NVIDIA英偉達(dá) ? 來(lái)源:英偉達(dá)NVIDIA中國(guó) ? 2019-11-29 14:45 ? 次閱讀

NVIDIA Turing GPU與 NVIDIA Xavier在MLPerf數(shù)據(jù)中心與邊緣AI推理性能基準(zhǔn)測(cè)試中取得最快成績(jī)。

NVIDIA于今日公布,其在最新測(cè)定數(shù)據(jù)中心與邊緣AI推理工作負(fù)載性能的基準(zhǔn)測(cè)試中取得最快成績(jī)。NVIDIA在前不久的AI訓(xùn)練基準(zhǔn)測(cè)試中也展現(xiàn)出同樣強(qiáng)大的實(shí)力,為此次獲勝奠定了基礎(chǔ)。

MLPerf Inference 0.5是業(yè)內(nèi)首個(gè)獨(dú)立AI推理基準(zhǔn)套件,其測(cè)試結(jié)果證明了NVIDIA Turing數(shù)據(jù)中心GPU以及NVIDIA Xavier 邊緣計(jì)算芯片系統(tǒng)的性能。

MLPerf的五項(xiàng)推理基準(zhǔn)適用于一系列形式因素和四種推理情景,涵蓋了圖像分類、目標(biāo)檢測(cè)和翻譯等已有的AI應(yīng)用。

憑借Turing GPU所提供的目前市面上單處理器最高的性能,NVIDIA 在全部五項(xiàng)針對(duì)于兩種數(shù)據(jù)中心關(guān)注的情景(服務(wù)器和離線)的基準(zhǔn)測(cè)試中均排在首位1。Xavier則是市面上針對(duì)兩種邊緣情景(單流和多流)性能最高的邊緣和移動(dòng)芯片系統(tǒng)2。

NVIDIA副總裁兼加速計(jì)算總經(jīng)理Ian Buck表示:“AI正處于從研究階段迅速轉(zhuǎn)向大規(guī)模實(shí)際應(yīng)用部署的臨界點(diǎn)。AI推理是一項(xiàng)巨大的計(jì)算挑戰(zhàn)。NVIDIA將業(yè)內(nèi)最先進(jìn)的可編程加速器CUDA-X AI算法套件與我們?cè)贏I計(jì)算領(lǐng)域的深厚知識(shí)相結(jié)合,能夠幫助數(shù)據(jù)中心部署龐大且正在不斷增長(zhǎng)的復(fù)雜AI模型?!?/p>

由于重視其計(jì)算平臺(tái)在各種AI工作負(fù)載中的可編程性與性能,因此NVIDIA是唯一一家提交了全部五項(xiàng)MLPerf基準(zhǔn)測(cè)試結(jié)果的AI計(jì)算平臺(tái)公司。此前七月,NVIDIA就曾在多項(xiàng)MLPerf 0.6 AI訓(xùn)練基準(zhǔn)測(cè)試結(jié)果中勝出,在訓(xùn)練性能方面創(chuàng)造了八項(xiàng)紀(jì)錄。

NVIDIA GPU在全球最大的云基礎(chǔ)設(shè)施中為大型推理工作負(fù)載提供加速,這些云基礎(chǔ)設(shè)施包括阿里云、AWS、谷歌云平臺(tái)、微軟Azure和騰訊等。目前,AI正在朝操作和數(shù)據(jù)生成點(diǎn)的邊緣移動(dòng)。沃爾瑪、寶潔等全球首屈一指的企業(yè)和機(jī)構(gòu)正使用NVIDIA EGX邊緣計(jì)算平臺(tái)與AI推理能力在邊緣運(yùn)行復(fù)雜的AI工作負(fù)載。

NVIDIA的所有MLPerf測(cè)試結(jié)果均采用NVIDIA TensorRT 6 高性能深度學(xué)習(xí)推理軟件獲得。該軟件能夠在生產(chǎn)中輕松優(yōu)化和部署數(shù)據(jù)中心、邊緣等位置的AI應(yīng)用。此外,GitHub庫(kù)還以開源形式提供新的TensorRT優(yōu)化。

全新Jetson Xavier NX

為了擴(kuò)展其推理平臺(tái),NVIDIA于今日宣布推出了Jetson Xavier NX。Jetson Xavier NX是全球體積最小、性能最強(qiáng)大的適用于邊緣機(jī)器人嵌入式計(jì)算設(shè)備的AI超級(jí)計(jì)算機(jī),它是圍繞MLPerf Inference 0.5基準(zhǔn)測(cè)試中所使用的Xavier芯片系統(tǒng)所打造的低功耗版本。

MLPerf v0.5 Inference results retrieved from www.mlperf.org on Nov. 6, 2019, from entries Inf-0.5-15,Inf-0. 5-16, Inf-0.5-19, Inf-0.5-21. Inf-0.5-22, Inf-0.5-23, Inf-0.5-27. Per-processor performance is calculated by dividing the primary metric of total performance by number of accelerators reported.

MLPerf v0.5 Inference results retrieved from www.mlperf.org on Nov. 6, 2019, from entries Inf-0.5-24, Inf-0.5-28, Inf-0.5-29.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4816

    瀏覽量

    102633
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29383

    瀏覽量

    267667
  • 邊緣計(jì)算
    +關(guān)注

    關(guān)注

    22

    文章

    3009

    瀏覽量

    48286

原文標(biāo)題:NVIDIA在最新AI推理基準(zhǔn)測(cè)試中大獲成功

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA與思科合作打造企業(yè)級(jí)生成式AI基礎(chǔ)設(shè)施

    NVIDIA 加速計(jì)算平臺(tái)、NVIDIA AI Enterprise 軟件和 NVIDIA NIM 推理微服務(wù)加持的思科 Nexus H
    的頭像 發(fā)表于 10-10 09:35 ?191次閱讀

    TDA4 Edge AI處理器的性能和效率基準(zhǔn)測(cè)試

    電子發(fā)燒友網(wǎng)站提供《TDA4 Edge AI處理器的性能和效率基準(zhǔn)測(cè)試.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:21 ?0次下載
    TDA4 Edge <b class='flag-5'>AI</b>處理器的性能和效率<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>測(cè)試</b>

    NVIDIA加速計(jì)算和生成式AI領(lǐng)域的創(chuàng)新

    最新發(fā)布的公司 2024 財(cái)年可持續(xù)發(fā)展報(bào)告開篇的一封信中,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛介紹了 NVIDIA 加速計(jì)算和生成式 AI
    的頭像 發(fā)表于 09-09 09:18 ?429次閱讀

    NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分?jǐn)?shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測(cè)試(MTEB)涵蓋 56 項(xiàng)嵌入任務(wù)。
    的頭像 發(fā)表于 08-23 16:54 ?1874次閱讀
    <b class='flag-5'>NVIDIA</b>文本嵌入模型NV-Embed的精度<b class='flag-5'>基準(zhǔn)</b>

    NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成式AI服務(wù)

    NVIDIA近日宣布了一項(xiàng)重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference
    的頭像 發(fā)表于 07-25 16:57 ?432次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?609次閱讀

    NVIDIA推出用于支持全新GeForce RTX AI筆記本電腦上運(yùn)行的AI助手及數(shù)字人

    NVIDIA 宣布推出全新 NVIDIA RTX?技術(shù),用于支持全新 GeForce RTX AI 筆記本電腦上運(yùn)行的 AI 助手及數(shù)字人
    的頭像 發(fā)表于 06-04 10:19 ?626次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡(jiǎn)化AI模型部署過(guò)程,為全球的2800萬(wàn)英偉達(dá)開發(fā)者提供前所未有的便利。
    的頭像 發(fā)表于 06-04 09:15 ?577次閱讀

    NVIDIA將全球數(shù)百萬(wàn)開發(fā)者轉(zhuǎn)變?yōu)樯墒?AI 開發(fā)者

    測(cè)試 ? NVIDIA 于今日宣布,全球 2,800 萬(wàn)開發(fā)者現(xiàn)可下載NVIDIA NIM——一種推理微服務(wù),通過(guò)經(jīng)優(yōu)化的容器的形式提供模型——以部署
    的頭像 發(fā)表于 06-03 18:21 ?946次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實(shí)踐中,唯品會(huì) AI 平臺(tái)與 NVIDIA 團(tuán)隊(duì)合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將
    的頭像 發(fā)表于 04-20 09:39 ?571次閱讀

    UL Procyon AI 發(fā)布圖像生成基準(zhǔn)測(cè)試,基于Stable Diffusion

    UL去年發(fā)布的首個(gè)Windows版Procyon AI推理基準(zhǔn)測(cè)試,以計(jì)算機(jī)視覺(jué)工作負(fù)載評(píng)估AI推理
    的頭像 發(fā)表于 03-25 16:16 ?787次閱讀

    使用NVIDIA Triton推理服務(wù)器來(lái)加速AI預(yù)測(cè)

    這家云計(jì)算巨頭的計(jì)算機(jī)視覺(jué)和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來(lái)加速 AI 預(yù)測(cè)。
    的頭像 發(fā)表于 02-29 14:04 ?506次閱讀

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    場(chǎng)景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)圖像分類、目標(biāo)識(shí)別、人臉識(shí)別、文字識(shí)別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    利用 NVIDIA Jetson 實(shí)現(xiàn)生成式 AI

    交互速率運(yùn)行的 Llama-2-70B 模型。 圖 1. 領(lǐng)先的生成式 AI 模型? Jetson AGX Orin 上的推理性能 如要在 Jetson 上快速測(cè)試最新的模型和應(yīng)用,
    的頭像 發(fā)表于 11-07 21:25 ?844次閱讀
    利用 <b class='flag-5'>NVIDIA</b> Jetson 實(shí)現(xiàn)生成式 <b class='flag-5'>AI</b>

    周四研討會(huì)預(yù)告 | 注冊(cè)報(bào)名 NVIDIA AI Inference Day - 大模型推理線上研討會(huì)

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會(huì),將幫助您了解 NVIDIA 開源大型語(yǔ)言模型(LLM)
    的頭像 發(fā)表于 10-26 09:05 ?308次閱讀