0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)五種視覺(jué)注意力模塊的改進(jìn)

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-06-02 14:52 ? 次閱讀

視覺(jué)注意力機(jī)制的各種模塊是個(gè)好東西,即插即用,可以添加到主流的對(duì)象檢測(cè)、實(shí)例分割等模型的backbone與neck中,實(shí)現(xiàn)輕松漲點(diǎn),本文使用OID數(shù)據(jù)集的2000多張數(shù)據(jù),基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)五種視覺(jué)注意力模塊的改進(jìn),然后訓(xùn)練相同的輪次,橫向比較模型的精度。

YOLOv5添加注意模塊魔改

視覺(jué)注意力機(jī)制是一個(gè)好東西,即插即用,YOLOv5 7.0版本工程代碼簡(jiǎn)潔明了,代碼加入視覺(jué)注意力模塊支持異常方便,以SE注意力為例,只要三步即可完成: 1. 修改模型結(jié)構(gòu)文件yaml、添加注意力機(jī)制SENet模塊 2. 修改模型結(jié)構(gòu)實(shí)現(xiàn)代碼文件common.py,實(shí)現(xiàn)SENet模塊代碼添加 3. 修改模型解析代碼文件yolo.py,注冊(cè)新添加的SENet模塊解析支持 這樣就完成了YOLOv5+SE注意力模塊的支持,別急,我還修改了ECA、CA、GAM、CBAM,顯示如下:

7797c3b2-fc57-11ed-90ce-dac502259ad0.png

然后統(tǒng)統(tǒng)訓(xùn)練100輪次,跟原來(lái)的沒(méi)有添加注意力機(jī)制的對(duì)比一下,看看效果怎么樣?答案揭曉了,

77a3b8fc-fc57-11ed-90ce-dac502259ad0.png

77af4dfc-fc57-11ed-90ce-dac502259ad0.png

我只是在SPPF之前的一層添加了注意力模塊,只有這個(gè)小小的改動(dòng)!從效果看,基本都可以漲點(diǎn)了…

對(duì)比驗(yàn)證結(jié)果

100 輪次OID數(shù)據(jù)集自定義數(shù)據(jù),YOLOv5s模型與SE、ECA、CA、CBAM、GAM五種注意力改進(jìn)模型,mAP指標(biāo)統(tǒng)計(jì)與對(duì)比

77bb7582-fc57-11ed-90ce-dac502259ad0.png

YOLOv5注意力機(jī)制模型部署

然后我還基于以前的測(cè)試程序上測(cè)試一下,導(dǎo)出ONNX格式,然后通過(guò)ONNXRUNTIME進(jìn)行推理,以SE注意力+YOLOv5s為例,感覺(jué)一切順利。PyQT5 + ONNXRUNTIME, 圖示如下:

77cf9454-fc57-11ed-90ce-dac502259ad0.png
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2626

    瀏覽量

    47211
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6754

    瀏覽量

    88611
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4694

    瀏覽量

    68075

原文標(biāo)題:用注意力機(jī)制魔改YOLOv5漲點(diǎn)

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于H743板子移植YOLOV5s做缺陷檢測(cè)可行嗎?

    大概的思路是用yolov5s的模型進(jìn)行剪枝壓縮量化處理,然后通過(guò)cube-ai進(jìn)行移植,搭配ov5640的攝像頭,想請(qǐng)教下這個(gè)方案可以行的通嗎?
    發(fā)表于 03-20 08:08

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽模型),訓(xùn)練就引用我自己之前寫過(guò)的,已經(jīng)訓(xùn)練好的可以跳過(guò)該部分,其中有
    發(fā)表于 04-23 15:43

    基于SLH89F5162的左額電壓信號(hào)的注意力比拼

    。注意力高則LED越亮。項(xiàng)目難點(diǎn):腦部電壓信號(hào)的處理,屏幕顯示的設(shè)計(jì)處理能否吸引人,無(wú)線協(xié)議的選擇和實(shí)現(xiàn),以及亮度可變的LED的實(shí)現(xiàn)方案。時(shí)間安排:13.10.17-13.11.20 資料收集整理,各
    發(fā)表于 10-17 15:46

    基于labview的注意力分配實(shí)驗(yàn)設(shè)計(jì)

    畢設(shè)要求做一個(gè)注意力分配實(shí)驗(yàn)設(shè)計(jì)。有些結(jié)構(gòu)完全想不明白。具體如何實(shí)現(xiàn)如下。一個(gè)大概5*5的燈組合,要求隨機(jī)亮。兩個(gè)聲音大小不同的音頻,要求隨機(jī)響,有大、小兩個(gè)選項(xiàng)。以上兩
    發(fā)表于 05-07 20:33

    YOLOv5s算法在RK3399ProD的部署推理流程是怎樣的

    YOLOv5s算法在RK3399ProD的部署推理流程是怎樣的?基于RK33RK3399Pro怎樣使用NPU進(jìn)行加速推理呢?
    發(fā)表于 02-11 08:15

    怎樣使用PyTorch Hub去加載YOLOv5模型

    PyTorch Hub 加載預(yù)訓(xùn)練的 YOLOv5s 模型,model并傳遞圖像進(jìn)行推理。'yolov5s'是最輕最快的 YOLOv5 型號(hào)。有關(guān)所有可用模型的詳細(xì)信息,請(qǐng)參閱自述文件。詳細(xì)示例此示例
    發(fā)表于 07-22 16:02

    如何YOLOv5測(cè)試代碼?

    使用文檔“使用 YOLOv5 進(jìn)行對(duì)象檢測(cè)”我試圖從文檔第 10 頁(yè)訪問(wèn)以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區(qū)) ...但是這樣做時(shí)會(huì)被拒絕訪問(wèn)。該文檔沒(méi)有說(shuō)明需要特殊許可才能下載 test.zip 文件。NXP 的人可以提供有關(guān)如
    發(fā)表于 05-18 06:08

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】使用yolov5s模型(官方)

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】+使用yolov5s模型(官方) 配置好基本環(huán)境 如果沒(méi)有連接上網(wǎng)絡(luò)的,可以看博主寫的一篇怎么連接網(wǎng)絡(luò) apt update apt install
    發(fā)表于 11-13 11:04

    DeepMind為視覺(jué)問(wèn)題回答提出了一新的硬注意力機(jī)制

    然而,在基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在一個(gè)關(guān)鍵的缺點(diǎn):因?yàn)檫x擇要處理的信息的過(guò)程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機(jī)制中來(lái)支持基于梯度的優(yōu)化。目前研究人員正在努力來(lái)解決視覺(jué)注意力、文本注意力,乃
    的頭像 發(fā)表于 08-10 08:44 ?6166次閱讀

    通過(guò)引入硬注意力機(jī)制來(lái)引導(dǎo)學(xué)習(xí)視覺(jué)回答任務(wù)的研究

    此外,通過(guò)對(duì)特征向量的 L2 正則化處理來(lái)選擇重要性特征,我們的視覺(jué)問(wèn)答框架進(jìn)一步采用硬注意力機(jī)制進(jìn)行增強(qiáng)。我們將最初的版本成為硬注意力網(wǎng)絡(luò) HAN (Hard Attention Network
    的頭像 發(fā)表于 10-04 09:23 ?5402次閱讀

    基于通道注意力機(jī)制的SSD目標(biāo)檢測(cè)算法

    為提升原始SSD算法的小目標(biāo)檢測(cè)精度及魯棒性,提出一基于通道注意力機(jī)制的SSD目標(biāo)檢測(cè)算法。在原始SSD算法的基礎(chǔ)上對(duì)高層特征圖進(jìn)行全局池化操作,結(jié)合通道注意力機(jī)制增強(qiáng)高層特征圖的語(yǔ)
    發(fā)表于 03-25 11:04 ?20次下載

    Tengine 支持 NPU 模型部署-YOLOv5s

    今天我們?cè)囍?AI 邊緣計(jì)推理框架 Tengine 在 Khadas VIM3 的 AI 加速器上部署 YOLOv5s。
    發(fā)表于 01-25 18:38 ?3次下載
    Tengine 支持 NPU 模型部署-<b class='flag-5'>YOLOv5s</b>

    詳解即插即用的視覺(jué)注意力模塊

    SE注意力模塊的全稱是Squeeze-and-Excitation block、其中Squeeze實(shí)現(xiàn)全局信息嵌入、Excitation實(shí)現(xiàn)自適應(yīng)權(quán)重矯正,合起來(lái)就是SE
    的頭像 發(fā)表于 05-18 10:23 ?2393次閱讀
    詳解<b class='flag-5'>五</b><b class='flag-5'>種</b>即插即用的<b class='flag-5'>視覺(jué)</b><b class='flag-5'>注意力</b><b class='flag-5'>模塊</b>

    計(jì)算機(jī)視覺(jué)中的注意力機(jī)制

    計(jì)算機(jī)視覺(jué)中的注意力機(jī)制 卷積神經(jīng)網(wǎng)絡(luò)中常用的Attention 參考 注意力機(jī)制簡(jiǎn)介與分類 注意力機(jī)制(Attention Mechanism) 是機(jī)器學(xué)習(xí)中的一
    發(fā)表于 05-22 09:46 ?0次下載
    計(jì)算機(jī)<b class='flag-5'>視覺(jué)</b>中的<b class='flag-5'>注意力</b>機(jī)制

    YOLOv8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對(duì)象檢測(cè)與實(shí)例分割模型,借鑒了YOLOv5、YOLOv6、YOLOX等模型的設(shè)計(jì)優(yōu)點(diǎn),全面提升改進(jìn)
    的頭像 發(fā)表于 08-10 11:35 ?1176次閱讀
    <b class='flag-5'>YOLOv</b>8+OpenCV<b class='flag-5'>實(shí)現(xiàn)</b>DM碼定位檢測(cè)與解析