0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT 8.2將推理速度提高6倍

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:About Jay Rodge ? 2022-03-31 17:10 ? 次閱讀

NVIDIA 發(fā)布了 TensorRT 8.2 ,對(duì)十億參數(shù) NLU 模型進(jìn)行了優(yōu)化。其中包括 T5 和 GPT-2 ,用于翻譯和文本生成,使實(shí)時(shí)運(yùn)行 NLU 應(yīng)用程序成為可能。

TensorRT 是一款高性能的深度學(xué)習(xí)推理優(yōu)化器和運(yùn)行時(shí),為人工智能應(yīng)用程序提供低延遲、高吞吐量推理。 TensorRT 用于醫(yī)療、汽車、制造、互聯(lián)網(wǎng)/電信服務(wù)、金融服務(wù)和能源等多個(gè)行業(yè)。

PyTorch 和 TensorFlow 是擁有數(shù)百萬用戶的最流行的深度學(xué)習(xí)框架。新的 TensorRT 框架集成現(xiàn)在在 PyTorch 和 TensorFlow 中提供了一個(gè)簡(jiǎn)單的 API ,并提供了強(qiáng)大的 FP16 和 INT8 優(yōu)化,從而將推理速度提高了 6 倍。

亮點(diǎn)包括

TensorRT 8.2:T5 和 GPT-2 的優(yōu)化運(yùn)行實(shí)時(shí)翻譯和摘要,與 CPU 相比,性能提高了 21 倍。

TensorRT 8.2 :適用于使用 Windows 的開發(fā)人員的簡(jiǎn)單 Python API 。

Torch TensorRT:PyTorch 的集成與 GPU 上的框架內(nèi)推理相比,僅需一行代碼即可提供高達(dá) 6 倍的性能。

TensorFlow TensorRT:TensorFlow 與 TensorRT 的集成提供了比使用一行代碼在 GPU 上進(jìn)行框架內(nèi)推理快 6 倍的性能。

資源

Torch- TensorRT 在 NGC catalog 的 PyTorch 容器中提供。

TensorFlow- TensorRT 目前可從 NGC catalog 的 TensorFlow 容器中獲得。

TensorRT 免費(fèi)提供給 NVIDIA 開發(fā)程序 的成員。

在 TensorRT 產(chǎn)品頁面了解更多信息

關(guān)于作者

About Jay Rodge

Jay Rodge 是 NVIDIA 的產(chǎn)品營銷經(jīng)理,負(fù)責(zé)深入學(xué)習(xí)和推理產(chǎn)品,推動(dòng)產(chǎn)品發(fā)布和產(chǎn)品營銷計(jì)劃。杰伊在芝加哥伊利諾伊理工學(xué)院獲得計(jì)算機(jī)科學(xué)碩士學(xué)位,主攻計(jì)算機(jī)視覺和自然語言處理。在 NVIDIA 之前,杰伊是寶馬集團(tuán)的人工智能研究實(shí)習(xí)生,為寶馬最大的制造廠使用計(jì)算機(jī)視覺解決問題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4817

    瀏覽量

    102637
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11040

    瀏覽量

    102449
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5439

    瀏覽量

    120794
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,
    的頭像 發(fā)表于 08-23 15:48 ?307次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?611次閱讀

    MediaTek與NVIDIA TAO加速物聯(lián)網(wǎng)邊緣AI應(yīng)用發(fā)展

    在即將到來的COMPUTEX 2024科技盛會(huì)上,全球知名的芯片制造商MediaTek宣布了一項(xiàng)重要合作——NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(
    的頭像 發(fā)表于 06-12 14:49 ?410次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)極大地簡(jiǎn)化AI模型部署過程,為全球的2800萬英偉達(dá)開發(fā)者提供前所未有的便利。
    的頭像 發(fā)表于 06-04 09:15 ?578次閱讀

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    大型語言模型(LLM)和專家混合(MoE)模型的推理過程。 第二代Transformer引擎采用8位浮點(diǎn)(FP8)和新的精度等技術(shù),大型語言模型如GPT-MoE-1.8T的訓(xùn)練速度提高
    發(fā)表于 05-13 17:16

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個(gè)開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?445次閱讀

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新開源大語言模型采用 NVIDIA 技術(shù)構(gòu)建,其經(jīng)過優(yōu)化后可在云、數(shù)據(jù)中心、邊緣和 PC 的 NVIDIA GPU 上運(yùn)行。
    的頭像 發(fā)表于 04-23 09:52 ?390次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實(shí)踐中,唯品會(huì) AI 平臺(tái)與 NVIDIA 團(tuán)隊(duì)合作,結(jié)合 NVIDIA TensorRTNVIDIA Merlin HierarchicalKV(HKV)
    的頭像 發(fā)表于 04-20 09:39 ?576次閱讀

    NVIDIA cuOpt算法路徑優(yōu)化求解速度提高100

    NVIDIA cuOpt 是一個(gè)用于解決復(fù)雜路徑問題的加速優(yōu)化引擎。它能高效解決不同方面的問題,如休息時(shí)間、等待時(shí)間、多個(gè)車輛成本和時(shí)間矩陣、多個(gè)目標(biāo)、訂單-車輛匹配、車輛起始和結(jié)束位置、車輛起始和結(jié)束時(shí)間等。
    的頭像 發(fā)表于 04-19 10:09 ?361次閱讀
    <b class='flag-5'>NVIDIA</b> cuOpt算法<b class='flag-5'>將</b>路徑優(yōu)化求解<b class='flag-5'>速度</b><b class='flag-5'>提高</b>100<b class='flag-5'>倍</b>

    使用NVIDIA Triton推理服務(wù)器來加速AI預(yù)測(cè)

    這家云計(jì)算巨頭的計(jì)算機(jī)視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預(yù)測(cè)。
    的頭像 發(fā)表于 02-29 14:04 ?508次閱讀

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗(yàn)

    本案例通過利用NVIDIA TensorRT-LLM加速指令識(shí)別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器在NVIDIA V1
    的頭像 發(fā)表于 01-17 09:30 ?606次閱讀

    Torch TensorRT是一個(gè)優(yōu)化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個(gè)端到端的機(jī)器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高性能深度學(xué)習(xí)推理軟件工具包。Torc
    的頭像 發(fā)表于 01-09 16:41 ?1281次閱讀
    Torch <b class='flag-5'>TensorRT</b>是一個(gè)優(yōu)化PyTorch模型<b class='flag-5'>推理</b>性能的工具

    Google的第五代TPU,推理性能提升2.5

     Gridspace 機(jī)器學(xué)習(xí)主管Wonkyum Lee表示:“我們的速度基準(zhǔn)測(cè)試表明,在 Google Cloud TPU v5e 上訓(xùn)練和運(yùn)行時(shí),AI 模型的速度提高了 5 。我
    發(fā)表于 11-24 10:27 ?516次閱讀
    Google的第五代TPU,<b class='flag-5'>推理</b>性能提升2.5<b class='flag-5'>倍</b>

    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開發(fā)布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和優(yōu)化最新的大語言模型(Large Language Models)的
    的頭像 發(fā)表于 10-27 20:05 ?893次閱讀
    現(xiàn)已公開發(fā)布!歡迎使用 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM 優(yōu)化大語言模型<b class='flag-5'>推理</b>

    周四研討會(huì)預(yù)告 | 注冊(cè)報(bào)名 NVIDIA AI Inference Day - 大模型推理線上研討會(huì)

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會(huì),幫助您了解 NVIDIA 開源大型語言模型(LLM)
    的頭像 發(fā)表于 10-26 09:05 ?308次閱讀