0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenCV+CUDA編譯實(shí)現(xiàn)YOLOv5能加速

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 作者:gloomyfish ? 2022-07-18 10:27 ? 次閱讀

OpenCV開(kāi)發(fā)者基本技能之一就是要從源碼編譯OpenCV生成各種裁剪版本的OpenCV庫(kù),同時(shí)根據(jù)需要編譯源碼生產(chǎn)支持CUDA加速版本的OpenCV庫(kù)。 但是,很多開(kāi)發(fā)者還是編譯中會(huì)遇到各種問(wèn)題,被迫放棄!可以說(shuō)還沒(méi)用CUDA加速就已經(jīng)自我放棄啦! 所以周末我又重新編譯了一遍,針對(duì)各種問(wèn)題,幫大家理清了對(duì)策,幫助大家可以完成OpenCV+CUDA編譯,實(shí)現(xiàn)性能加速! 軟件版本信息

OpenCV+CUDA編譯

整個(gè)編譯過(guò)程主要分為三步:

下載源碼,一定是Tag對(duì)應(yīng)的版本跟擴(kuò)展模塊CMake階段,解決無(wú)法下載的坑!去掉不必要的模塊VS工程編譯,生成lib與dll

下載源碼:


選擇tag-4.5.4,

CMake:

打開(kāi)CMake,設(shè)置源碼路徑跟目標(biāo)路徑:

30245b08-05d1-11ed-ba43-dac502259ad0.png

上述選擇表示編譯為64位的庫(kù)!

點(diǎn)擊【Configure】,

3037c1fc-05d1-11ed-ba43-dac502259ad0.png

然后再點(diǎn)擊【generate

307c4b2e-05d1-11ed-ba43-dac502259ad0.png

完成之后,搜索cuda關(guān)鍵字,如上圖,三個(gè)選項(xiàng)勾上,

309ffe7a-05d1-11ed-ba43-dac502259ad0.png

然后再搜索opencv_ex, 設(shè)置擴(kuò)展模塊的代碼路徑,如上圖!設(shè)置好之后再次點(diǎn)擊【Configure】,完成之后:

30c7c4d2-05d1-11ed-ba43-dac502259ad0.png

搜索cuda,如上圖勾選! 最后搜索:

默認(rèn)是勾選的,全部不要選擇!(去掉勾選!)

無(wú)法下載ffmpeg, ippicv問(wèn)題解決:

從上述兩個(gè)文件拿到下載地址,直接下載完成之后,分別放到對(duì)應(yīng)目錄:

就一切OK了。

生成好VS工程文件之后,打開(kāi)工程文件:

30f6e0b4-05d1-11ed-ba43-dac502259ad0.png

謝天謝地,終于編譯好啦!

OpenCV+CUDA配置與加速

基于最新編譯好的OpenCV+CUDA支持的庫(kù),重新配置OpenCV開(kāi)發(fā)環(huán)境,對(duì)比YOLOv5部署,CPU運(yùn)行推理測(cè)試結(jié)果如下:

31222328-05d1-11ed-ba43-dac502259ad0.png

添加兩行代碼,啟用GPU運(yùn)行推理測(cè)試結(jié)果如下:

31563cda-05d1-11ed-ba43-dac502259ad0.png

顯卡是3050ti!

對(duì)比一下,加速效果真得是杠杠滴!所以值得編譯OpenCV+CUDA支持,因?yàn)樗还饧铀?a href="http://srfitnesspt.com/v/tag/448/" target="_blank">深度學(xué)習(xí)模型推理,對(duì)傳統(tǒng)圖像處理均有加速!

審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10776

    瀏覽量

    210466
  • OpenCV
    +關(guān)注

    關(guān)注

    29

    文章

    623

    瀏覽量

    41179
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13571

原文標(biāo)題:OpenCV4.5.x+CUDA11.0.x源碼編譯與YOLOv5加速教程!

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    YOLOv5】LabVIEW+YOLOv5快速實(shí)現(xiàn)實(shí)時(shí)物體識(shí)別(Object Detection)含源碼

    前面我們給大家介紹了基于LabVIEW+YOLOv3/YOLOv4的物體識(shí)別(對(duì)象檢測(cè)),今天接著上次的內(nèi)容再來(lái)看看YOLOv5。本次主要是和大家分享使用LabVIEW快速實(shí)現(xiàn)
    的頭像 發(fā)表于 03-13 16:01 ?2039次閱讀

    手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實(shí)現(xiàn)YOLOv5實(shí)時(shí)物體識(shí)別

    今天我們就一起來(lái)看一下如何使用LabVIEW開(kāi)放神經(jīng)網(wǎng)絡(luò)交互工具包實(shí)現(xiàn)TensorRT加速YOLOv5
    的頭像 發(fā)表于 03-20 16:36 ?2523次閱讀
    手把手教你使用LabVIEW ONNX Runtime部署 TensorRT<b class='flag-5'>加速</b>,<b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>YOLOv5</b>實(shí)時(shí)物體識(shí)別

    Yolov5算法解讀

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然在不斷進(jìn)行升級(jí)迭代。 Yolov5YOLOv5s、YOLOv5
    的頭像 發(fā)表于 05-17 16:38 ?8062次閱讀
    <b class='flag-5'>Yolov5</b>算法解讀

    YOLOv5】LabVIEW+TensorRT的yolov5部署實(shí)戰(zhàn)(含源碼)

    今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實(shí)現(xiàn)yolov5的物體識(shí)別
    的頭像 發(fā)表于 08-21 22:20 ?1234次閱讀
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b>部署實(shí)戰(zhàn)(含源碼)

    龍哥手把手教你學(xué)視覺(jué)-深度學(xué)習(xí)YOLOV5

    步數(shù)的課程,希望學(xué)員學(xué)習(xí)后能在實(shí)際工業(yè)項(xiàng)目中落地應(yīng)用。本次課程將重點(diǎn)講解《YOLOv5》篇,讓沒(méi)有任何深度學(xué)習(xí)基礎(chǔ)的小白學(xué)員,通過(guò)視頻課程能動(dòng)手配置好yolov5環(huán)境,利用自己的數(shù)據(jù)集訓(xùn)練模型,
    發(fā)表于 09-03 09:39

    怎樣使用PyTorch Hub去加載YOLOv5模型

    PyTorch 快 2-5 倍專業(yè)提示:在CPU 基準(zhǔn)測(cè)試中, ONNX和OpenVINO可能比 PyTorch 快 2-3 倍環(huán)境YOLOv5 可以在以下任何經(jīng)過(guò)驗(yàn)證的最新環(huán)境中運(yùn)行(預(yù)裝了所有依賴項(xiàng),包括CUDA / CU
    發(fā)表于 07-22 16:02

    如何YOLOv5測(cè)試代碼?

    使用文檔“使用 YOLOv5 進(jìn)行對(duì)象檢測(cè)”我試圖從文檔第 10 頁(yè)訪問(wèn)以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區(qū)) ...但是這樣做時(shí)會(huì)被拒絕訪問(wèn)。該文檔沒(méi)有說(shuō)明需要特殊許可才能下載 test.zip 文件。NXP 的人可以提供有關(guān)如
    發(fā)表于 05-18 06:08

    如何在OpenCV實(shí)現(xiàn)CUDA加速

    OpenCV4.x中關(guān)于CUDA加速的內(nèi)容主要有兩個(gè)部分,第一部分是之前OpenCV支持的圖像處理與對(duì)象檢測(cè)傳統(tǒng)算法的CUDA
    的頭像 發(fā)表于 09-05 10:03 ?4971次閱讀

    YOLOv5OpenCV上的推理程序

    YOLOv5官方給出的YOLOv5OpenCV上推理的程序相對(duì)來(lái)說(shuō)是比較通俗易懂的,條理清晰,有基本的封裝,直接可用!但是我也發(fā)現(xiàn),模型的推理時(shí)間跟前后處理的時(shí)間相差無(wú)幾,特別是當(dāng)視頻流有多個(gè)檢測(cè)到的對(duì)象時(shí)候,整個(gè)幀率會(huì)有明顯
    的頭像 發(fā)表于 11-02 10:16 ?1783次閱讀

    YOLOv5 7.0版本下載與運(yùn)行測(cè)試

    支持實(shí)例分割了,從此YOLOv5實(shí)現(xiàn)了圖像分類、對(duì)象檢測(cè)、實(shí)例分割三個(gè)支持,從訓(xùn)練到部署。
    的頭像 發(fā)表于 11-30 15:55 ?3580次閱讀

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運(yùn)行yolov5并使用pytoch的pt模型文件轉(zhuǎn)ONNX。
    的頭像 發(fā)表于 04-26 14:20 ?812次閱讀
    使用旭日X3派的BPU部署<b class='flag-5'>Yolov5</b>

    YOLOv8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對(duì)象檢測(cè)與實(shí)例分割模型,借鑒了YOLOv5、YOLOv6、YOLOX等模型的設(shè)計(jì)優(yōu)點(diǎn),全面提升改進(jìn)YOLOv5的模型結(jié)構(gòu)基
    的頭像 發(fā)表于 08-10 11:35 ?1185次閱讀
    <b class='flag-5'>YOLOv8+OpenCV</b><b class='flag-5'>實(shí)現(xiàn)</b>DM碼定位檢測(cè)與解析

    yolov5和YOLOX正負(fù)樣本分配策略

    整體上在正負(fù)樣本分配中,yolov7的策略算是yolov5和YOLOX的結(jié)合。因此本文先從yolov5和YOLOX正負(fù)樣本分配策略分析入手,后引入到YOLOv7的解析中。
    發(fā)表于 08-14 11:45 ?2123次閱讀
    <b class='flag-5'>yolov5</b>和YOLOX正負(fù)樣本分配策略

    OpenCV4.8+YOLOv8對(duì)象檢測(cè)C++推理演示

    自從YOLOv5更新成7.0版本,YOLOv8推出以后,OpenCV4.6以前的版本都無(wú)法再加載導(dǎo)出ONNX格式模型了,只有OpenCV4.7以上版本才可以支持最新版本
    的頭像 發(fā)表于 09-27 11:07 ?1374次閱讀
    <b class='flag-5'>OpenCV4.8+YOLOv</b>8對(duì)象檢測(cè)C++推理演示

    OpenCV4.8+CUDA+擴(kuò)展模塊支持編譯指南

    OpenCV4.8+CUDA+擴(kuò)展模塊支持編譯指南
    的頭像 發(fā)表于 11-30 16:45 ?828次閱讀
    <b class='flag-5'>OpenCV4.8+CUDA</b>+擴(kuò)展模塊支持<b class='flag-5'>編譯</b>指南