0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch中激活函數(shù)的全面概覽

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 2024-04-30 09:26 ? 次閱讀

為了更清晰地學(xué)習(xí)Pytorch中的激活函數(shù),并對比它們之間的不同,這里對最新版本的Pytorch中的激活函數(shù)進(jìn)行了匯總,主要介紹激活函數(shù)的公式、圖像以及使用方法,具體細(xì)節(jié)可查看官方文檔。

1、ELU

公式:

99f3d2c6-063c-11ef-a297-92fbcf53809c.png

圖像:

99fd92e8-063c-11ef-a297-92fbcf53809c.png

示例:

9a09bc58-063c-11ef-a297-92fbcf53809c.png

2、Hardshrink

公式:

9a0d8e14-063c-11ef-a297-92fbcf53809c.png

圖像:

9a1adc5e-063c-11ef-a297-92fbcf53809c.png

示例:

9a256520-063c-11ef-a297-92fbcf53809c.png

3、Hardsigmoid

公式:

9a2c35bc-063c-11ef-a297-92fbcf53809c.png

圖像:

9a300804-063c-11ef-a297-92fbcf53809c.png

示例:

9a3d2eda-063c-11ef-a297-92fbcf53809c.png

4、Hardtanh

公式:

9a47b2ce-063c-11ef-a297-92fbcf53809c.png

圖像:

9a52d0fa-063c-11ef-a297-92fbcf53809c.png

示例:

9a5aaf28-063c-11ef-a297-92fbcf53809c.png

5、Hardswish

公式:

9a61970c-063c-11ef-a297-92fbcf53809c.png

圖像:

9a697d82-063c-11ef-a297-92fbcf53809c.png

示例:

9ab8be9c-063c-11ef-a297-92fbcf53809c.png

6、LeakyReLU

公式:

9ac00fd0-063c-11ef-a297-92fbcf53809c.png

圖像:

9ac6b312-063c-11ef-a297-92fbcf53809c.png

示例:

9ad15c04-063c-11ef-a297-92fbcf53809c.png

7、LogSigmoid

公式:

9ad4fc92-063c-11ef-a297-92fbcf53809c.png

圖像:

9ada80c2-063c-11ef-a297-92fbcf53809c.png

示例;

9ae1d9e4-063c-11ef-a297-92fbcf53809c.png

8、PReLU

公式:

9ae56e60-063c-11ef-a297-92fbcf53809c.png

其中,a是可學(xué)習(xí)的參數(shù)。

圖像:

9aedb9f8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.PReLU()

9、ReLU

公式:

9af7ac06-063c-11ef-a297-92fbcf53809c.png

圖像:

9afe6668-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU()

10、ReLU6

公式:

9b0258e0-063c-11ef-a297-92fbcf53809c.png

圖像:

9b06107a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU6()

11、RReLU

公式:

9b0b45f4-063c-11ef-a297-92fbcf53809c.png

其中,a從均勻分布U(lower,upper)隨機(jī)采樣得到。

圖像:

9b12ee58-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.RReLU(0.1, 0.3)

12、SELU

公式:

9b1b5ce6-063c-11ef-a297-92fbcf53809c.png

其中,a=1.6732632423543772848170429916717,scale=1.0507009873554804934193349852946。

圖像:

9b233a42-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SELU()

13、CELU

公式:

9b2c92ea-063c-11ef-a297-92fbcf53809c.png

圖像:

9b337ff6-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.CELU()

14、GELU

公式:

9b3fd0c6-063c-11ef-a297-92fbcf53809c.png

圖像:

9b4984b8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.GELU()

15、Sigmoid

公式:

9b4d35ea-063c-11ef-a297-92fbcf53809c.png

圖像:

9b50fb3a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn. Sigmoid()

16、SiLU

公式:

9b56ebd0-063c-11ef-a297-92fbcf53809c.png

圖像:

9b5c0836-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SiLU()

17、Mish

公式:

9b5f8fe2-063c-11ef-a297-92fbcf53809c.png

圖像:

9b6a56ca-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Mish()

18、Softplus

公式:

9b7824d0-063c-11ef-a297-92fbcf53809c.png

對于數(shù)值穩(wěn)定性,當(dāng)9b7fa9b2-063c-11ef-a297-92fbcf53809c.png時,恢復(fù)到線性函數(shù)。

圖像:

9b865852-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softplus()

19、Softshrink

公式:

9b906cca-063c-11ef-a297-92fbcf53809c.png

圖像:

9b96ad2e-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softshrink()

20、Softsign

公式:

9b9ef812-063c-11ef-a297-92fbcf53809c.png

圖像:

9ba45866-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softsign()

21、Tanh

公式:

9bad9bce-063c-11ef-a297-92fbcf53809c.png

圖像:

9bb53b36-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanh()

22、Tanhshrink

公式:

9bc0bfb0-063c-11ef-a297-92fbcf53809c.png

圖像:

9bc7eb46-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanhshrink()

23、Threshold

公式:

9bd43a18-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Threshold(0.1, 20)

24、GLU

公式:

9bd7d420-063c-11ef-a297-92fbcf53809c.png

其中,a是輸入矩陣的前半部分,b是后半部分。

示例:

m = nn.GLU()

25、Softmin

公式:

9bdb6036-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmin(dim=1)

26、Softmax

公式:

9be16e72-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmax(dim=1)

27、LogSoftmax

公式:

9beba9a0-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.LogSoftmiax(dim=1)

28、其它

還有MultiheadAttention、Softmax2d、AdaptiveLogSoftmaxWithLoss相對復(fù)雜一些沒有添加,可去官網(wǎng)文檔查看.

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4256

    瀏覽量

    62223
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13076

原文標(biāo)題:Pytorch激活函數(shù)最全匯總

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Stm32寄存器與庫函數(shù)概覽

    Stm32寄存器與庫函數(shù)概覽(摘自固件庫使用手冊)
    發(fā)表于 01-26 11:04

    基于神經(jīng)網(wǎng)絡(luò)的激活函數(shù)和相應(yīng)的數(shù)學(xué)介紹

    希望你理解了激活函數(shù)背后的思想,為什么要使用激活函數(shù),以及如何選用激活函數(shù)
    的頭像 發(fā)表于 01-10 11:53 ?6305次閱讀
    基于神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>和相應(yīng)的數(shù)學(xué)介紹

    激活函數(shù)sigmoid、ReLU等函數(shù)的一些性質(zhì)

    非線性:當(dāng)激活函數(shù)是線性的時候,一個兩層的神經(jīng)網(wǎng)絡(luò)就可以基本逼近所有的函數(shù),但是,如果激活函數(shù)是恒等激活
    的頭像 發(fā)表于 08-02 14:52 ?1.1w次閱讀
    <b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函數(shù)</b>的一些性質(zhì)

    圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

    什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?激活函數(shù)有助于決定我們是否需要激活神經(jīng)元。如果我們需要發(fā)射一個神經(jīng)元那么信號的強(qiáng)度是多少。
    的頭像 發(fā)表于 07-05 11:21 ?3713次閱讀
    圖文詳解:神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    詳解十種激活函數(shù)的優(yōu)缺點

    激活函數(shù)(Activation Function)是一種添加到人工神經(jīng)網(wǎng)絡(luò)函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)的復(fù)雜模式。類似于人類大腦中基于神
    的頭像 發(fā)表于 03-05 16:15 ?1.3w次閱讀
    詳解十種<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的優(yōu)缺點

    關(guān)于深度學(xué)習(xí)最常用的10大激活函數(shù)詳解

    那就讓我們來整理一下深度學(xué)習(xí)離不開的激活函數(shù)
    的頭像 發(fā)表于 03-12 17:45 ?3165次閱讀
    關(guān)于深度學(xué)習(xí)最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>詳解

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù)

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活
    的頭像 發(fā)表于 07-06 14:47 ?888次閱讀

    PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活
    的頭像 發(fā)表于 07-06 15:27 ?2437次閱讀

    PyTorchnn.Conv2d與nn.ConvTranspose2d函數(shù)的用法

    PyTorchnn.Conv2d與nn.ConvTranspose2d函數(shù)的用法
    的頭像 發(fā)表于 01-11 16:43 ?4428次閱讀
    <b class='flag-5'>PyTorch</b><b class='flag-5'>中</b>nn.Conv2d與nn.ConvTranspose2d<b class='flag-5'>函數(shù)</b>的用法

    解析激活函數(shù)作用

    激活函數(shù)是用來加入非線性因素的,解決線性模型所不能解決的問題。 下面我分別從這個方面通過例子給出自己的理解~
    的頭像 發(fā)表于 02-17 15:46 ?942次閱讀
    解析<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>作用

    PyTorch教程23.7之效用函數(shù)和類

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程23.7之效用函數(shù)和類.pdf》資料免費下載
    發(fā)表于 06-06 09:19 ?0次下載
    <b class='flag-5'>PyTorch</b>教程23.7之效用<b class='flag-5'>函數(shù)</b>和類

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)有哪些

    在神經(jīng)網(wǎng)絡(luò),激活函數(shù)是一個至關(guān)重要的組成部分,它決定了神經(jīng)元對于輸入信號的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得網(wǎng)絡(luò)能夠?qū)W習(xí)和處理復(fù)雜的模式。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)中常用的激活
    的頭像 發(fā)表于 07-01 11:52 ?440次閱讀

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計算模型,廣泛應(yīng)用于圖像識別、自然語言處理、語音識別等領(lǐng)域。在神經(jīng)網(wǎng)絡(luò),激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出值,進(jìn)而影響整個網(wǎng)絡(luò)的性能。本文將
    的頭像 發(fā)表于 07-02 10:09 ?371次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。在卷積神經(jīng)網(wǎng)絡(luò),激活函數(shù)
    的頭像 發(fā)表于 07-03 09:18 ?486次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個網(wǎng)絡(luò)的性能。 一、激活函數(shù)的作用
    的頭像 發(fā)表于 07-03 10:02 ?426次閱讀