0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Dynamic ReLU:根據(jù)輸入動(dòng)態(tài)確定的ReLU

冬至子 ? 來(lái)源:思否AI ? 作者:思否AI ? 2023-09-01 17:28 ? 次閱讀

這是我最近才看到的一篇論文,它提出了動(dòng)態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應(yīng)地調(diào)整分段線性激活函數(shù)。

與傳統(tǒng)的ReLU相比,DY-ReLU的額外計(jì)算成本可以忽略不計(jì),但表示能力明顯增強(qiáng),并且實(shí)現(xiàn)簡(jiǎn)單,所以可以非常簡(jiǎn)單的對(duì)我們現(xiàn)有的模型進(jìn)行修改。

Dynamic ReLU (DY-ReLU)

對(duì)于給定的輸入向量(或張量)x,DY-ReLU被定義為具有可學(xué)習(xí)參數(shù)θ(x)的函數(shù)fθ(x)(x),該參數(shù)適應(yīng)于輸入x,它包括兩個(gè)功能:

超函數(shù)θ(x):用于計(jì)算激活函數(shù)的參數(shù)。

激活函數(shù)fθ(x)(x):使用參數(shù)θ(x)生成所有通道的激活。

1、函數(shù)定義

設(shè)傳統(tǒng)的或靜態(tài)的ReLU為y = max(x, 0)。ReLU可以推廣為每個(gè)通道c的參數(shù)分段線性函數(shù)。

其中coeffcients ( akc , bkc )是超函數(shù)(x)的輸出,如下:

其中K是函數(shù)的個(gè)數(shù),C是通道的個(gè)數(shù)。論文中K=2。

2、超函數(shù)θ(x)的實(shí)現(xiàn)

使用輕量級(jí)網(wǎng)絡(luò)對(duì)超函數(shù)進(jìn)行建模,這個(gè)超函數(shù)類似于SENet中的SE模塊(稍后會(huì)介紹)。

輸出有2KC個(gè)元素,對(duì)應(yīng)于a和b的殘差。2σ(x)-1用于對(duì)-1到1之間的殘差進(jìn)行歸一化,其中σ(x)表示s型函數(shù)。最終輸出計(jì)算為初始化和殘差之和,如下所示:

其中λ是標(biāo)量,這個(gè)公式也就是我們上面的圖

3、與先前研究的關(guān)系

可以看到DY-ReLU的三種特殊情況相當(dāng)于ReLU、Leaky ReLU和PReLU。

4、DY-ReLU的變體

DY-ReLU-A:激活函數(shù)是空間和通道共享的。

DY-ReLU-B:激活函數(shù)是空間共享和通道相關(guān)的。

DY-ReLU-C:激活的是空間和通道分開的。

結(jié)果展示

1、消融研究

所有三種變化都比基線有所改善,但通道分開的DY-ReLU(變化B和C)明顯優(yōu)于通道共享的DY-ReLU(變化A)。

所以根據(jù)上面結(jié)果,使用DY-ReLU-B進(jìn)行ImageNet分類,使用DY-ReLU-C進(jìn)行COCO關(guān)鍵點(diǎn)檢測(cè)。

2、ImageNet分類

使用MobileNetV2 (×0.35和×1.0), 用不同的激活函數(shù)代替ReLU。所提出的方法明顯優(yōu)于所有先前的工作,包括具有更多計(jì)算成本的Maxout。這表明DY-ReLU不僅具有更強(qiáng)的表示能力,而且計(jì)算效率高。

上圖繪制了5萬(wàn)張驗(yàn)證圖像在不同區(qū)塊(從低到高)的DY-ReLU輸入輸出值??梢钥吹綄W(xué)習(xí)到的DY-ReLU在特征上是動(dòng)態(tài)的,因?yàn)閷?duì)于給定的輸入x,激活值(y)在一個(gè)范圍內(nèi)(藍(lán)點(diǎn)覆蓋的范圍)變化。

下圖分析DY-ReLU中兩段之間的夾角(即斜率差|a1c-a2c|)。激活函數(shù)在較高水平上具有較低的彎曲。

3、COCO關(guān)鍵點(diǎn)估計(jì)

當(dāng)使用MobileNetV3作為骨干時(shí),刪除SENet模塊,使用DY-ReLU替代ReLU和h-Swish后,結(jié)果也有提高。

總結(jié)

可以看到,只是使用DY-ReLU替換現(xiàn)有的激活函數(shù),模型的表現(xiàn)明顯優(yōu)于基線模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3552

    瀏覽量

    133799
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【飛凌嵌入式OK3576-C開發(fā)板體驗(yàn)】RKNN神經(jīng)網(wǎng)絡(luò)-YOLO目標(biāo)檢測(cè)

    Projects/rknn_model_zoo/examples/yolov5/python python convert.py ../model/yolov5s_relu.onnx rk3576
    發(fā)表于 10-10 09:33

    caffe源碼解讀《十三》relu

    編程語(yǔ)言行業(yè)芯事經(jīng)驗(yàn)分享
    蒙特卡洛家的樹
    發(fā)布于 :2022年03月09日 13:41:01

    【NanoPi K1 Plus試用體驗(yàn)】深度學(xué)習(xí)---快速開始序貫(Sequential)模型

    ('relu'),Dense(10),Activation('softmax'),])也可以通過(guò).add()方法一個(gè)個(gè)的將layer加入模型中:model = Sequential()model.add
    發(fā)表于 07-20 15:55

    Keras可視化神經(jīng)網(wǎng)絡(luò)架構(gòu)的4種方法

    Boards 要求用戶在架構(gòu)可視化之前根據(jù)準(zhǔn)確的數(shù)據(jù)訓(xùn)練模型。在開始進(jìn)行可視化之前,我們先需要安裝相應(yīng)的包:pip install visualkeras pip install ann_visualizer
    發(fā)表于 11-02 14:55

    bottom-up多層規(guī)約圖融合策略資料介紹

    (例如Conv+ReLU)則受限于供應(yīng)商API的支持程度?! ‰S著AI模型在各領(lǐng)域的發(fā)展、成熟和落地,模型推理在具體設(shè)備上的性能變得越發(fā)重要,17年到18年,業(yè)界出現(xiàn)了大量面向DL模型推理的計(jì)算框架,算子
    發(fā)表于 11-09 17:33

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識(shí)別中的應(yīng)用實(shí)戰(zhàn)

    ): inputs = Input(input_shape) # 編碼器部分 conv1 = Conv2D(32, (3, 3), activation=\'relu\', padding
    發(fā)表于 09-04 11:11

    【KV260視覺入門套件試用體驗(yàn)】Vitis AI 通過(guò)遷移學(xué)習(xí)訓(xùn)練自定義模型

    是ResNet系列中最簡(jiǎn)單的一個(gè)模型,共有18層,其中包括: 一個(gè)7×7的卷積層,輸出通道數(shù)為64,步幅為2,后接批量歸一化(Batch Normalization)和ReLU激活函數(shù)。 一個(gè)3×3的最大池
    發(fā)表于 10-16 15:03

    技嘉 主板Dynamic Energy Saver動(dòng)態(tài)節(jié)能工

    技嘉 主板Dynamic Energy Saver動(dòng)態(tài)節(jié)能工具B8.0128.1版.zip
    發(fā)表于 01-27 14:27 ?15次下載

    深度ReLU網(wǎng)絡(luò)的訓(xùn)練動(dòng)態(tài)過(guò)程及其對(duì)泛化能力的影響

    基于這個(gè)框架,我們?cè)噲D用統(tǒng)一的觀點(diǎn)來(lái)解釋這些令人費(fèi)解的經(jīng)驗(yàn)現(xiàn)象。本文使用師生設(shè)置,其中給過(guò)度參數(shù)化的深度學(xué)生ReLU網(wǎng)絡(luò)的標(biāo)簽,是具有相同深度和未知權(quán)重的固定教師ReLU網(wǎng)絡(luò)的輸出(圖1(a))。在這個(gè)角度來(lái)看,隱藏的學(xué)生節(jié)點(diǎn)將隨機(jī)初始化為不同的激活區(qū)域。(圖2(a))
    的頭像 發(fā)表于 06-15 10:48 ?3303次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡(luò)的訓(xùn)練<b class='flag-5'>動(dòng)態(tài)</b>過(guò)程及其對(duì)泛化能力的影響

    ngx_dynamic_limit_req_module IP動(dòng)態(tài)鎖定工具

    ./oschina_soft/ngx_dynamic_limit_req_module.zip
    發(fā)表于 05-07 09:29 ?0次下載
    ngx_<b class='flag-5'>dynamic</b>_limit_req_module IP<b class='flag-5'>動(dòng)態(tài)</b>鎖定工具

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實(shí)現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個(gè)在PyTorch中使用ReLU激活函數(shù)的例子:
    的頭像 發(fā)表于 07-06 15:27 ?2439次閱讀

    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡(luò))

    圖片在輸入網(wǎng)絡(luò)后,依次經(jīng)過(guò)一系列卷積+ReLU得到的51×39×256維feature map,準(zhǔn)備后續(xù)用來(lái)選取proposal。
    的頭像 發(fā)表于 01-11 16:55 ?1298次閱讀
    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡(luò))

    Relu算子的介紹

    Relu是一種非線性激活函數(shù),它的特點(diǎn)有運(yùn)算簡(jiǎn)單,不會(huì)在梯度處出現(xiàn)梯度消失的情況,而且它在一定程度上能夠防止深度學(xué)習(xí)模型在訓(xùn)練中發(fā)生的過(guò)擬合現(xiàn)象。
    的頭像 發(fā)表于 01-11 17:07 ?1377次閱讀

    結(jié)合卷積層來(lái)創(chuàng)建一個(gè)完整的推理函數(shù)

    首先輸入一張1x28x28的圖片,然后兩次通過(guò)Conv2d -> ReLU -> MaxPool2d提取特征,最后轉(zhuǎn)為linear,> ReLU -> Linear為10階向量值。
    的頭像 發(fā)表于 03-13 09:22 ?683次閱讀

    深度ReLU網(wǎng)絡(luò)的對(duì)應(yīng)淺層網(wǎng)絡(luò)

    ? 只要你用了ReLU,我們就是好朋就是“淺度學(xué)習(xí)”。 最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡(luò)都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡(luò)。 ? 基于這個(gè)證明,倫敦國(guó)王學(xué)院的研究團(tuán)隊(duì)還提出一種為任意
    的頭像 發(fā)表于 07-03 14:13 ?505次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡(luò)的對(duì)應(yīng)淺層網(wǎng)絡(luò)