0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型轉(zhuǎn)成TensorRT引擎的流程

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-25 11:24 ? 次閱讀

前面我們花了很多力氣在 TAO 上面訓(xùn)練模型,其最終目的就是要部署到推理設(shè)備上發(fā)揮功能。除了將模型訓(xùn)練過程進(jìn)行非常大幅度的簡化,以及整合遷移學(xué)習(xí)等功能之外,TAO 還有一個(gè)非常重要的任務(wù),就是讓我們更輕松獲得 TensorRT 加速引擎。

將一般框架訓(xùn)練的模型轉(zhuǎn)換成 TensorRT 引擎的過程并不輕松,但是 TensorRT 所帶來的性能紅利又是如此吸引人,如果能避開麻煩又能享受成果,這是多么好的福利!

下圖是將一般模型轉(zhuǎn)成 TesnorRT 的標(biāo)準(zhǔn)步驟,在中間 “Builder” 右邊的環(huán)節(jié)是相對單純的,比較復(fù)雜的是 “Builder” 左邊的操作過程。

9d325b6e-db60-11ec-ba43-dac502259ad0.png

下圖就上圖 “NetworkDefinition” 比較深入的內(nèi)容,TensorRT 提供 Caffe、uff 與 ONNX 三種解析器,其中 Caffe 框架已淡出市場、uff 僅支持 TensorFlow 框架,其他的模型就需要透過 ONNX 交換格式進(jìn)行轉(zhuǎn)換。

9d87b744-db60-11ec-ba43-dac502259ad0.png

這里以 TensorRT 所提供的 YOLOv3 范例來做范例,在安裝 Jetpack 4.6 版本的 Jetson Nano 設(shè)備上進(jìn)行體驗(yàn),請進(jìn)入到 TesnorRT 的 YOLOv3 范例中:

cd  /usr/src/tensorrt/samples/python/yolov3_onnx

?

根據(jù)項(xiàng)目的 README.md 指示,我們需要先為工作環(huán)境添加依賴庫,不過由于部分庫的版本關(guān)系,請先將 requirements.txt 的第 1、3 行進(jìn)行以下的修改:

numpy==1.19.4protobuf>=3.11.3onnx==1.10.1Pillow; python_version<"3.6"Pillow==8.1.2; python_version>="3.6"pycuda<2021.1

然后執(zhí)行以下指令進(jìn)行安裝:

python3 -m pip install -r requirements.txt

接下來需要先下載 download.yml 里面的三個(gè)文件,

wget https://pjreddie.com/media/files/yolov3.weights wget https://raw.githubusercontent.com/pjreddie/darknet/f86901f6177dfc6116360a13cc06ab680e0c86b0/cfg/yolov3.cfg wgethttps://github.com/pjreddie/darknet/raw/f86901f6177dfc6116360a13cc06ab680e0c86b0/data/dog.jpg

然后就能執(zhí)行以下指令,將 yolov3.weights 轉(zhuǎn)成 yolov3.onnx

./yolov3_to_onnx.py  -d  /usr/src/tensorrt

這個(gè)執(zhí)行并不復(fù)雜,是因?yàn)?TensorRT 已經(jīng)提供 yolov3_to_onnx.py 的 Python 代碼,但如果將代碼打開之后,就能感受到這 750+ 行代碼要處理的內(nèi)容是相當(dāng)復(fù)雜,必須對 YOLOv3 的結(jié)構(gòu)與算法有足夠了解,包括解析 yolov3.cfg 的 788 行配置。想象一下,如果這個(gè)代碼需要自行開發(fā)的話,這個(gè)難度有多高!

接下去再用下面指令,將 yolov3.onnx 轉(zhuǎn)成 yolov3.trt 加速引擎:

./onnx_to_tensorrt.py  -d  /usr/src/tensorrt

以上是從一般神經(jīng)網(wǎng)絡(luò)模型轉(zhuǎn)成 TensorRT 加速引擎的標(biāo)準(zhǔn)步驟,這需要對所使用的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)層、數(shù)學(xué)公式、參數(shù)細(xì)節(jié)等等都有相當(dāng)足夠的了解,才有能力將模型先轉(zhuǎn)換成 ONNX 文件,這是技術(shù)門檻比較高的環(huán)節(jié)。

  • TAO 工具訓(xùn)練的模型轉(zhuǎn)成 TensorRT 引擎的工具

用 TAO 工具所訓(xùn)練、修剪并匯出的 .etlt 文件,可以跳過上述過程,直接在推理設(shè)備上轉(zhuǎn)換成 TensorRT 加速引擎,我們完全不需要了解神經(jīng)網(wǎng)絡(luò)的任何結(jié)構(gòu)與算法內(nèi)容,直接將 .etlt 文件復(fù)制到推理設(shè)備上,然后用 TAO 所提供的轉(zhuǎn)換工具進(jìn)行轉(zhuǎn)換就可以。

這里總共需要執(zhí)行三個(gè)步驟:

1、下載 tao-converter 工具,并調(diào)試環(huán)境:

請根據(jù)以下 Jetpack 版本,下載對應(yīng)的 tao-converter 工具:

Jetpack 4.4:https://developer.nvidia.com/cuda102-trt71-jp44-0 Jetpack 4.5:https://developer.nvidia.com/cuda110-cudnn80-trt72-0 Jetpack 4.6:https://developer.nvidia.com/jp46-20210820t231431z-001zip

下載壓縮文件后執(zhí)行解壓縮,就會生成 tao-converterREADME.txt 兩個(gè)文件,再根據(jù) README.txt 的指示執(zhí)行以下步驟:

(1)安裝 libssl-dev 庫:

sudo  apt  install  libssl-dev

(2) 配置環(huán)境,請?jiān)?strong> ~/.bashrc 最后面添加兩行設(shè)置:

export TRT_LIB_PATH=/usr/lib/aarch64-linux-gnuexportTRT_INCLUDE_PATH=/usr/include/aarch64-linux-gnu

(3) 將 tao-convert 變成可執(zhí)行文件:

source ~/.bashrcchmod  +x  tao-convertersudocptao-converter/usr/local/bin

2、安裝 TensorRT 的 OSS (Open Source Software)

這是 TensorRT 的開源插件,項(xiàng)目在 https://github.com/NVIDIA/TensorRT,下面提供的安裝說明非常復(fù)雜,我們將繁瑣的步驟整理之后,就是下面的步驟:

export  ARCH=請根據(jù)設(shè)備進(jìn)行設(shè)置,例如Nano為53、NX為72、Xavier為62export  TRTVER=請根據(jù)系統(tǒng)的TensorRT版本,例如Jetpack 4.6為8.0.1git  clone  -b  $TRTVER  https://github.com/nvidia/TensorRT  TRToss cd  TRToss/git checkout  -b  $TRTVER  &&  git  submodule  update  --init  --recursivemkdir  -p  build  &&  cd  buildcmake .. -DGPU_ARCHS=$ARCH-DTRT_LIB_DIR=/usr/lib/aarch64-linux-gnu/-DCMAKE_C_COMPILER=/usr/bin/gcc-DTRT_BIN_DIR=`pwd`/out-DTRT_PLATFORM_ID=aarch64-DCUDA_VERSION=10.2make  nvinfer_plugin  -j$(nproc)sudomv/usr/lib/aarch64-linux-gnu/libnvinfer_plugin.so.8.0.1  /usr/lib/aarch64-linux-gnu/libnvinfer_plugin.so.8.0.1.baksudocplibnvinfer_plugin.so.8.0.1/usr/lib/aarch64-linux-gnu/libnvinfer_plugin.so.8.0.1

這樣就能開始用 tao-converter 來將 .etlt 文件轉(zhuǎn)換成 TensorRT 加速引擎了。

3、用 tao-converter 進(jìn)行轉(zhuǎn)換

(1)首先將 TAO 最終導(dǎo)出 (export) 的文件復(fù)制到 Jetson Nano 上,例如前面的實(shí)驗(yàn)中最終導(dǎo)出的文件 ssd_resnet18_epoch_080.etlt,

(2)在 Jetson Nano 上執(zhí)行 TAO 的 ssd.ipynb 最后所提供的轉(zhuǎn)換指令,如下:

%set_env KEY=tao converter  -k  $KEY -d  3,300,300     -o  NMS     -e  ssd_resnet18_epoch_080.trt   # 自己設(shè)定輸出名稱    -m  16     -t  fp16                       # 使用export時(shí)相同精度    -i  nchw ssd_resnet18_epoch_080.etlt

這樣就能生成在 Jetson Nano 上的 ssd_resnet18_epoch_080.trt 加速引擎文件,整個(gè)過程比傳統(tǒng)方式要簡便許多。

原文標(biāo)題:NVIDIA Jetson Nano 2GB系列文章(64):將模型部署到Jetson設(shè)備

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4817

    瀏覽量

    102637
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5439

    瀏覽量

    120794
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    17

    瀏覽量

    1328

原文標(biāo)題:NVIDIA Jetson Nano 2GB系列文章(64):將模型部署到Jetson設(shè)備

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?126次閱讀

    深度學(xué)習(xí)編譯器和推理引擎的區(qū)別

    深度學(xué)習(xí)編譯器和推理引擎在人工智能領(lǐng)域中都扮演著至關(guān)重要的角色,但它們各自的功能、應(yīng)用場景以及優(yōu)化目標(biāo)等方面存在顯著的差異。以下是對兩者區(qū)別的詳細(xì)探討。
    的頭像 發(fā)表于 07-17 18:12 ?1137次閱讀

    深度學(xué)習(xí)模型有哪些應(yīng)用場景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動了科技進(jìn)步和產(chǎn)業(yè)升級。以下將詳細(xì)探討深度
    的頭像 發(fā)表于 07-16 18:25 ?1116次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時(shí)盡量保持
    的頭像 發(fā)表于 07-15 11:01 ?413次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>量化方法

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時(shí)間序列預(yù)測等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)
    的頭像 發(fā)表于 07-14 14:21 ?1569次閱讀

    基于Python的深度學(xué)習(xí)人臉識別方法

    基于Python的深度學(xué)習(xí)人臉識別方法是一個(gè)涉及多個(gè)技術(shù)領(lǐng)域的復(fù)雜話題,包括計(jì)算機(jī)視覺、深度學(xué)習(xí)、以及圖像處理等。在這里,我將概述一個(gè)基本的流程
    的頭像 發(fā)表于 07-14 11:52 ?1061次閱讀

    深度學(xué)習(xí)模型中的過擬合與正則化

    深度學(xué)習(xí)的廣闊領(lǐng)域中,模型訓(xùn)練的核心目標(biāo)之一是實(shí)現(xiàn)對未知數(shù)據(jù)的準(zhǔn)確預(yù)測。然而,在實(shí)際應(yīng)用中,我們經(jīng)常會遇到一個(gè)問題——過擬合(Overfitting)。過擬合是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)
    的頭像 發(fā)表于 07-09 15:56 ?570次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?613次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來在圖像識別、語音識別、自然語言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進(jìn)而實(shí)
    的頭像 發(fā)表于 07-03 16:06 ?948次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?793次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?574次閱讀

    Torch TensorRT是一個(gè)優(yōu)化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個(gè)端到端的機(jī)器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高性能深度
    的頭像 發(fā)表于 01-09 16:41 ?1281次閱讀
    Torch <b class='flag-5'>TensorRT</b>是一個(gè)優(yōu)化PyTorch<b class='flag-5'>模型</b>推理性能的工具

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    和足夠的計(jì)算資源,還需要根據(jù)任務(wù)和數(shù)據(jù)的特點(diǎn)進(jìn)行合理的超參數(shù)調(diào)整、數(shù)據(jù)增強(qiáng)和模型微調(diào)。在本文中,我們將會詳細(xì)介紹深度學(xué)習(xí)模型的訓(xùn)練流程,探討
    的頭像 發(fā)表于 12-07 12:38 ?1010次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何訓(xùn)練出好的<b class='flag-5'>模型</b>

    基于深度學(xué)習(xí)的情感語音識別模型優(yōu)化策略

    基于深度學(xué)習(xí)的情感語音識別模型的優(yōu)化策略,包括數(shù)據(jù)預(yù)處理、模型結(jié)構(gòu)優(yōu)化、損失函數(shù)改進(jìn)、訓(xùn)練策略調(diào)整以及集成學(xué)習(xí)等方面的內(nèi)容。
    的頭像 發(fā)表于 11-09 16:34 ?593次閱讀

    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開發(fā)布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和優(yōu)化最新的大語言模型(Large Language Models)的推理性
    的頭像 發(fā)表于 10-27 20:05 ?893次閱讀
    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA <b class='flag-5'>TensorRT</b>-LLM 優(yōu)化大語言<b class='flag-5'>模型</b>推理