0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Torch-TensorRT軟件更新 HF BERT性能提升40%

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-16 15:56 ? 次閱讀

我們十分高興地宣布,Torch-TensorRT 1.1.0 版本正式發(fā)布!

軟件版本

PyTorch 1.11

CUDA 11.3(在 x86_64 上,默認(rèn)設(shè)置下,兼容的 PyTorch Build 支持較新版本的 CUDA 11)

cuDNN 8.2.4.15

TensorRT 8.2.4.2

由于最近 JetPack 的升級(jí)和其發(fā)布流程的變化,Torch-TRTv1.1.0 版本不支持Jetson(Jetpack 5.0DP 或其他)。將在中期版本(Torch-TensorRT1.1.x)同時(shí)支持 Jetpack 5.0DP 和 TensorRT 8.4。

重要變更

HF BERT性能

算子和性能的進(jìn)一步優(yōu)化使 HF BERT 的性能比 V1.1 版本提升了 40%

更多的算子

18 個(gè)新的 aten 算子轉(zhuǎn)換器提高了 TensorRT 的模型覆蓋范圍和性能

查看全部 250+ 個(gè)算子

Triton 后端支持

21.12 版本以上的 Triton 現(xiàn)已支持 Torch-TensorRT

將在不久后提供工作流程教程

調(diào)試工具

上下文管理器現(xiàn)在允許使用更簡潔清晰的調(diào)試工作流程

不支持的算子已降級(jí)為警告,建議使用上下文管理器進(jìn)行調(diào)查

API 變更

max_batch_size 和 strict_types 由于在 TRT 中不被遵守已被刪除

所有與 Torch-TensorRT 相關(guān)的 Bug 都應(yīng)被歸入新的 “MachineLearning – TorchTRT” nvbugs 模塊。

原文標(biāo)題:Torch-TensorRT 1.1.0 版本正式發(fā)布

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 軟件
    +關(guān)注

    關(guān)注

    69

    文章

    4624

    瀏覽量

    87010
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13087

原文標(biāo)題:Torch-TensorRT 1.1.0 版本正式發(fā)布

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價(jià)值?!?/div>
    的頭像 發(fā)表于 08-23 15:48 ?311次閱讀

    M8020A J-BERT性能比特誤碼率測試儀

    M8020A 比特誤碼率測試儀 J-BERT M8020A 高性能 BERT 產(chǎn)品綜述 Keysight J-BERT M8020A 高性能
    的頭像 發(fā)表于 08-21 17:13 ?137次閱讀

    韓國服務(wù)器的性能如何提升

    韓國服務(wù)器的性能可以通過硬件升級(jí)、網(wǎng)絡(luò)優(yōu)化、緩存優(yōu)化和軟件優(yōu)化來提升。具體方法如下,rak小編為您整理發(fā)布韓國服務(wù)器的性能如何提升。
    的頭像 發(fā)表于 08-15 11:33 ?180次閱讀

    Allegro X 23.11 版本更新 I PCB 設(shè)計(jì):梯形布線的分析性能提升

    的新功能及用法,助力您提升設(shè)計(jì)質(zhì)量和設(shè)計(jì)效率。點(diǎn)擊文末閱讀原文,收藏版本更新亮點(diǎn)詳解匯總頁面,持續(xù)關(guān)注版本更新!AllegroXPCBDesigner系統(tǒng)級(jí)PCB設(shè)計(jì)
    的頭像 發(fā)表于 08-10 08:12 ?718次閱讀
    Allegro X 23.11 版本<b class='flag-5'>更新</b> I PCB 設(shè)計(jì):梯形布線的分析<b class='flag-5'>性能</b><b class='flag-5'>提升</b>

    AWG和BERT常見問題解答

    隨著信號(hào)的速率越來越高,調(diào)制格式越來越復(fù)雜,對(duì)測試儀器的性能要求也越來越高。是德科技也一直在推出業(yè)界領(lǐng)先的高帶寬、高采樣率的AWG和高性能BERT。
    的頭像 發(fā)表于 08-06 17:27 ?415次閱讀

    嵌入式軟件工程師如何提升自己?

    嵌入式軟件工程師如何提升自己? 作為一名嵌入式軟件工程師,在這個(gè)充滿機(jī)遇和挑戰(zhàn)的領(lǐng)域里,如何提升自己顯得非常重要,它決定了你未來的發(fā)展方向和成就。接下來,我們一起探討一下。 1.奠定扎
    發(fā)表于 06-12 11:20

    艾體寶方案 | 管理開源軟件更新提升開源安全性

    文章介紹了Mend.io如何通過其Smart Merge Control功能增強(qiáng)開源軟件的安全性?,F(xiàn)代應(yīng)用程序高度依賴開源軟件,但這也增加了潛在的安全漏洞。Mend SCA的增強(qiáng)功能允許開發(fā)者
    的頭像 發(fā)表于 05-31 17:03 ?258次閱讀

    如何修改Kernel Affinity提升openplc性能?

    如何修改Kernel Affinity提升openplc性能
    發(fā)表于 05-22 06:36

    軟件算法賦能4D雷達(dá)性能提升

    軟件定義雷達(dá)是一種可通過修改或更新軟件來配置和控制雷達(dá)工作方式的雷達(dá)系統(tǒng)。其中,軟件算法不僅作用于處理環(huán)節(jié),更直接作用于MIMO(多輸入多輸出)環(huán)節(jié),虛擬出更多信號(hào)通道。
    的頭像 發(fā)表于 04-18 14:15 ?564次閱讀
    <b class='flag-5'>軟件</b>算法賦能4D雷達(dá)<b class='flag-5'>性能</b><b class='flag-5'>提升</b>

    TC3x7如何更改DMU_HF_CONFIRM0以更新所需的BMHD?

    有人能分享更改 DMU_HF_CONFIRM0 以更新目標(biāo) TC3x7 所需的 BMHD 的步驟嗎
    發(fā)表于 01-24 08:19

    Torch TensorRT是一個(gè)優(yōu)化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個(gè)端到端的機(jī)器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高
    的頭像 發(fā)表于 01-09 16:41 ?1302次閱讀
    <b class='flag-5'>Torch</b> <b class='flag-5'>TensorRT</b>是一個(gè)優(yōu)化PyTorch模型推理<b class='flag-5'>性能</b>的工具

    點(diǎn)亮未來:TensorRT-LLM 更新加速 AI 推理性能,支持在 RTX 驅(qū)動(dòng)的 Windows PC 上運(yùn)行新模型

    微軟 Ignite 2023 技術(shù)大會(huì)發(fā)布的新工具和資源包括 OpenAI?Chat?API 的 TensorRT-LLM 封裝接口、RTX 驅(qū)動(dòng)的性能改進(jìn) DirectML?for?Llama?2
    的頭像 發(fā)表于 11-16 21:15 ?625次閱讀
    點(diǎn)亮未來:<b class='flag-5'>TensorRT</b>-LLM <b class='flag-5'>更新</b>加速 AI 推理<b class='flag-5'>性能</b>,支持在 RTX 驅(qū)動(dòng)的 Windows PC 上運(yùn)行新模型

    TensorRT-LLM初探(一)運(yùn)行l(wèi)lama

    TensorRT-LLM正式出來有半個(gè)月了,一直沒有時(shí)間玩,周末趁著有時(shí)間跑一下。
    的頭像 發(fā)表于 11-16 17:39 ?1130次閱讀
    <b class='flag-5'>TensorRT</b>-LLM初探(一)運(yùn)行l(wèi)lama

    TorchScript model與eager model的性能區(qū)別

    JIT Trace torch.jit.trace使用eager model和一個(gè)dummy input作為輸入,tracer會(huì)根據(jù)提供的model和input記錄數(shù)據(jù)在模型中的流動(dòng)過程,然后將整個(gè)
    的頭像 發(fā)表于 11-08 17:08 ?746次閱讀
    TorchScript model與eager model的<b class='flag-5'>性能</b>區(qū)別

    基于BERT算法搭建一個(gè)問答搜索引擎

    鼎鼎大名的 Bert 算法相信大部分同學(xué)都聽說過,它是Google推出的NLP領(lǐng)域“王炸級(jí)”預(yù)訓(xùn)練模型,其在NLP任務(wù)中刷新了多項(xiàng)記錄,并取得state of the art的成績。 但是有很多深度
    的頭像 發(fā)表于 10-30 11:46 ?552次閱讀
    基于<b class='flag-5'>BERT</b>算法搭建一個(gè)問答搜索引擎