SE注意力模塊
SE注意力模塊的全稱是Squeeze-and-Excitation block、其中Squeeze實現(xiàn)全局信息嵌入、Excitation實現(xiàn)自適應(yīng)權(quán)重矯正,合起來就是SE注意力模塊。
把SE注意力模塊添加到Inception Module中與ResNet的殘差Module中,實現(xiàn)SE注意力版本的Inception與ResNet模型
SE注意力模塊集成殘差的四種不同結(jié)構(gòu)設(shè)計
CA注意力模塊
圖中最右側(cè)是CA注意力模塊、左側(cè)是SE注意力模塊、中間是CBAM注意力模塊、CA注意力通過坐標(biāo)信息嵌入和坐標(biāo)注意力生成兩個步驟把通道關(guān)系和長程依賴關(guān)系精確編碼。
CBAM注意力模塊
該圖顯示了如何把一個CBAM模塊集成到到一個殘差模塊中,實現(xiàn)殘差CBAM模塊,CBAM是集成了通道注意力與空間注意力、通道和空間注意力模塊生成首先是通過平均池化和最大池化分別生成通道與空間注意力的輸入,然后通過MLP與7x7卷積輸出通道子模塊和空間子模塊。
ECA注意力模塊
通過全局均值池化(GAP)獲得的聚合通道特征,然后通過大小為k濾波器的快速1D卷積,然后重新構(gòu)建一個維的卷積輸出結(jié)果,乘以輸入的每個通通道數(shù)據(jù)作為輸出實現(xiàn)注意力機(jī)制為ECA。
GAM注意力模塊
全局注意力模塊基于CBAM注意力模塊集成上重新設(shè)計通道與空間兩個子模塊實現(xiàn),其中通道注意力直接使用MLP實現(xiàn)、空間注意力通過兩個7乘7的卷積實現(xiàn),最終GAM注意力添加到ResNet網(wǎng)絡(luò)的效果相比SE注意力、CBAM注意力有明顯提升。
YOLOv57.0 注意力加持版本
審核編輯:劉清
-
濾波器
+關(guān)注
關(guān)注
159文章
7657瀏覽量
177180 -
ECA
+關(guān)注
關(guān)注
0文章
7瀏覽量
7631 -
Module
+關(guān)注
關(guān)注
0文章
63瀏覽量
12837 -
MLP
+關(guān)注
關(guān)注
0文章
57瀏覽量
4199
原文標(biāo)題:五種即插即用的視覺注意力模塊
文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論