0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

物件檢測(cè)模型訓(xùn)練的詳細(xì)過程

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-20 17:43 ? 次閱讀

當(dāng)前面已經(jīng)訓(xùn)練好修剪過的模型之后,接下來就可以在訓(xùn)練設(shè)備上先執(zhí)行推理計(jì)算,看看檢測(cè)的效果如何?如果實(shí)際推理結(jié)果并不理想的話,就得回到前面第 6 步驟重新再執(zhí)行一次。

9、執(zhí)行推理并查看結(jié)果

首先創(chuàng)建一個(gè) test_samples 目錄,然后從數(shù)據(jù)集中 testing/image_2 中復(fù)制一些圖像過來測(cè)試,推理結(jié)果輸出到 ssd_infer_images 目錄下,這個(gè)推理計(jì)算也可以使用未修剪的模型來進(jìn)行測(cè)試。

在代碼框 “!tao ssd inference” 后面所提供的參數(shù)中,下面兩行是使用修剪后并重新訓(xùn)練的模型來進(jìn)行推理。

-e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.tlt

如果將這兩行參數(shù)改成下面內(nèi)容,就是用原始模型來進(jìn)行推理。

-e $SPECS_DIR/ssd_train_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_unpruned/weights/ssd_resnet18_epoch_$EPOCH.tlt

這樣我們可以執(zhí)行透過推理結(jié)果,來查看二者的不同。下面兩張圖分別是未修剪(上)與修剪后(下)模型推理結(jié)果的局部放大,雖然修剪后的模型效果不如未修剪的,但是執(zhí)行結(jié)果還是令人滿意,當(dāng)然這得看您的要求有多高。

如果認(rèn)可這個(gè)推理結(jié)果的話,那么訓(xùn)練階段的任務(wù)就可以告一段落,接下去就準(zhǔn)備將模型導(dǎo)出,以便部署到真實(shí)的推理設(shè)備上。

10、導(dǎo)出模型

要執(zhí)行這個(gè)步驟,最好先確認(rèn)您的推理設(shè)備上所能支持的數(shù)據(jù)精度,特別是 INT8 類型,例如 Jetson Nano (含 2GB)、TX2/TX1就不支持,Xavier NX 與 AGX Xavier 是支持的。臺(tái)式機(jī)上的游戲卡一般不支持 INT8,而 Tesla、Quadro 專業(yè)卡是支持的,不過 NVIDIA 全系列產(chǎn)品都支持 FP16,如果不能確認(rèn)這方面的信息,至少選擇 FP16 是比較穩(wěn)妥。

簡(jiǎn)單說明一下代碼框 “!tao ssd export” 后面的參數(shù):

6260cd2e-d5d7-11ec-bce3-dac502259ad0.jpg

假如要輸出 INT8 模型時(shí),由于需要特殊算法以及輔助的校準(zhǔn)工具,因此需要其他參數(shù)來協(xié)助這類模型的導(dǎo)出,主要如下:

6298af50-d5d7-11ec-bce3-dac502259ad0.jpg

這樣就能完成 INT8 模型的輸出任務(wù)。

到這里所輸出的 .etlt 模型文件基本上已經(jīng)可以部署到 DeepStream 推理設(shè)備上使用,因?yàn)?DeepStream 支持 .etlt 格式的調(diào)用,相當(dāng)方便。但如果要用其他獨(dú)立的 TensorRT 來執(zhí)行加速推理的話,就需要在推理設(shè)備上再進(jìn)行一次的轉(zhuǎn)換。

本步驟最后一個(gè)代碼塊 “!tao converter” 就是在訓(xùn)練設(shè)備上,將 .etlt 模型轉(zhuǎn)成這臺(tái)機(jī)器能使用的 TensorRT 引擎文件。由于參數(shù)內(nèi)容較多,這里不一一列舉,請(qǐng)自行至https://docs.nvidia.com/tao/tao-toolkit/text/object_detection/ssd.html搜索 “Using the tao-converter” 環(huán)節(jié),有詳細(xì)的參數(shù)說明。

要注意的一點(diǎn),在 “!tao converter 所使用的“-t 指定數(shù)據(jù)精度部分,需要與前面 !tao ssd export--data_type 一致,否則會(huì)失去效果。

11、驗(yàn)證部署模型的效果

這個(gè)步驟是驗(yàn)證 TensorRT 加速引擎的推理效果,主要讓我們?cè)诓渴鸬酵评碓O(shè)備之前,能再確認(rèn)一下推理效果。

下面同樣提供兩張推理結(jié)果參照?qǐng)D,上圖是未修剪的模型轉(zhuǎn)成 TensorRT 引擎的推理結(jié)果,下圖是修剪過的模型轉(zhuǎn)成 TensorRT 引擎的推理結(jié)果,效果看起來是一樣的,表示這個(gè)修剪過的模型還是足夠好的。

現(xiàn)在就完成一個(gè)物件檢測(cè)模型訓(xùn)練的過程,雖然看起來繁瑣,但是只要我們弄清楚一開始的路徑對(duì)應(yīng),以及熟練后面每個(gè)環(huán)節(jié)的參數(shù)用法,基本上要比在框架中自行撰寫代碼容易得多了,除了收集與整理數(shù)據(jù)的工作是 TAO 工具無法協(xié)助的,其余部分已經(jīng)都為大家提供好完整的指令塊,這是一個(gè)真正 “Zero Coding” 的全方位模型訓(xùn)練工具。

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-3

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4817

    瀏覽量

    102637
  • 檢測(cè)
    +關(guān)注

    關(guān)注

    5

    文章

    4398

    瀏覽量

    91250
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    17

    瀏覽量

    1328

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-3

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)
    的頭像 發(fā)表于 10-23 15:07 ?105次閱讀

    如何訓(xùn)練ai大模型

    訓(xùn)練AI大模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟和細(xì)致的考量。 一、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應(yīng)用場(chǎng)景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?373次閱讀

    如何使用經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型

    使用經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型是一個(gè)涉及多個(gè)步驟的過程,包括數(shù)據(jù)準(zhǔn)備、模型加載、預(yù)測(cè)執(zhí)行以及后續(xù)優(yōu)化等。
    的頭像 發(fā)表于 07-12 11:43 ?638次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個(gè)廣泛使用的開源深度學(xué)習(xí)庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是尤為關(guān)鍵的部分,它負(fù)責(zé)將模型的預(yù)測(cè)結(jié)果以合適
    的頭像 發(fā)表于 07-10 14:57 ?374次閱讀

    如何在TensorFlow中構(gòu)建并訓(xùn)練CNN模型

    在TensorFlow中構(gòu)建并訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型是一個(gè)涉及多個(gè)步驟的過程,包括數(shù)據(jù)預(yù)處理、模型設(shè)計(jì)、編譯、訓(xùn)練以及評(píng)估。下面
    的頭像 發(fā)表于 07-04 11:47 ?584次閱讀

    人臉識(shí)別模型訓(xùn)練流程

    人臉識(shí)別模型訓(xùn)練流程是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)重要技術(shù)。本文將詳細(xì)介紹人臉識(shí)別模型訓(xùn)練流程,包括數(shù)據(jù)準(zhǔn)備、
    的頭像 發(fā)表于 07-04 09:19 ?666次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    訓(xùn)練好的模型,這些模型通常在某些通用任務(wù)上表現(xiàn)出色,并且可以作為后續(xù)特定任務(wù)的起點(diǎn),通過遷移學(xué)習(xí)或微調(diào)(Fine-tuning)等方式進(jìn)行適應(yīng)和優(yōu)化。以下是對(duì)預(yù)訓(xùn)練
    的頭像 發(fā)表于 07-03 18:20 ?1817次閱讀

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個(gè)開源的機(jī)器學(xué)習(xí)庫,以其動(dòng)態(tài)計(jì)算圖、易于使用的API和強(qiáng)大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過程,包括數(shù)據(jù)準(zhǔn)備、模型
    的頭像 發(fā)表于 07-03 16:07 ?737次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程以及應(yīng)用領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積運(yùn)算 卷積運(yùn)算是CNN模型的核心,它是一種數(shù)學(xué)運(yùn)算
    的頭像 發(fā)表于 07-02 15:26 ?2603次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程
    的頭像 發(fā)表于 07-01 16:13 ?793次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過對(duì)YOLOv8姿態(tài)評(píng)估模型在自定義的數(shù)據(jù)集上訓(xùn)練
    的頭像 發(fā)表于 12-21 10:50 ?1584次閱讀
    如何基于深度學(xué)習(xí)<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)現(xiàn)圓<b class='flag-5'>檢測(cè)</b>與圓心位置預(yù)測(cè)

    【飛騰派4G版免費(fèi)試用】第三章:抓取圖像,手動(dòng)標(biāo)注并完成自定義目標(biāo)檢測(cè)模型訓(xùn)練和測(cè)試

    抓取圖像,手動(dòng)標(biāo)注并完成自定義目標(biāo)檢測(cè)模型訓(xùn)練和測(cè)試 在第二章中,我介紹了模型訓(xùn)練的一般過程,其
    發(fā)表于 12-16 10:05

    【飛騰派4G版免費(fèi)試用】 第二章:在PC端使用 TensorFlow2 訓(xùn)練目標(biāo)檢測(cè)模型

    本章記錄了如何使用TensorFlow2 進(jìn)行目標(biāo)檢測(cè)模型訓(xùn)練過程。
    的頭像 發(fā)表于 12-15 06:40 ?2338次閱讀
    【飛騰派4G版免費(fèi)試用】 第二章:在PC端使用 TensorFlow2 <b class='flag-5'>訓(xùn)練</b>目標(biāo)<b class='flag-5'>檢測(cè)</b><b class='flag-5'>模型</b>

    AI 模型構(gòu)建的五個(gè)過程詳解

    AI 模型構(gòu)建的過程 模型構(gòu)建主要包括 5 個(gè)階段,分別為模型設(shè)計(jì)、特征工程、模型訓(xùn)練、
    發(fā)表于 11-17 10:31 ?7713次閱讀
    AI <b class='flag-5'>模型</b>構(gòu)建的五個(gè)<b class='flag-5'>過程</b>詳解