0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

堆疊降噪自動(dòng)編碼器(SDAE)

jf_96884364 ? 來(lái)源:jf_96884364 ? 作者:jf_96884364 ? 2023-01-11 17:04 ? 次閱讀

自動(dòng)編碼器(Auto-Encoder,AE)

編碼器(autoencoder)是神經(jīng)網(wǎng)絡(luò)的一種,經(jīng)過(guò)訓(xùn)練后能嘗試將輸入復(fù)制到輸出。自編碼器內(nèi)部有一個(gè)隱藏層 h,可以產(chǎn)生編碼(code)表示輸入。該網(wǎng)絡(luò)可以看作由兩部分組成:一個(gè)由函數(shù) h = f(x) 表示的編碼器和一個(gè)生成重構(gòu)的解碼器 r = g(h)。我們不應(yīng)該將自編碼器設(shè)計(jì)成輸入到輸出完全相等。這通常需要向自編碼器強(qiáng)加一些約束,使它只能近似地復(fù)制,并只能復(fù)制與訓(xùn)練數(shù)據(jù)相似的輸入。

自動(dòng)編碼機(jī)由三層網(wǎng)絡(luò)組成,其中輸入層神經(jīng)元數(shù)量與輸出層神經(jīng)元數(shù)量相等,中間層神經(jīng)元數(shù)量少于輸入層和輸出層。搭建一個(gè)自動(dòng)編碼器需要完成下面三樣工作:搭建編碼器,搭建解碼器,設(shè)定一個(gè)損失函數(shù),用以衡量由于壓縮而損失掉的信息(自編碼器是有損的)。編碼器和解碼器一般都是參數(shù)化的方程,并關(guān)于損失函數(shù)可導(dǎo),典型情況是使用神經(jīng)網(wǎng)絡(luò)。編碼器和解碼器的參數(shù)可以通過(guò)最小化損失函數(shù)而優(yōu)化。

自動(dòng)編碼機(jī)(Auto-encoder)是一個(gè)自監(jiān)督的算法,并不是一個(gè)無(wú)監(jiān)督算法,它不需要對(duì)訓(xùn)練樣本進(jìn)行標(biāo)記,其標(biāo)簽產(chǎn)生自輸入數(shù)據(jù)。因此自編碼器很容易對(duì)指定類的輸入訓(xùn)練出一種特定的編碼器,而不需要完成任何新工作。自動(dòng)編碼器是數(shù)據(jù)相關(guān)的,只能壓縮那些與訓(xùn)練數(shù)據(jù)類似的數(shù)據(jù)。比如,使用人臉訓(xùn)練出來(lái)的自動(dòng)編碼器在壓縮別的圖片,比如樹木時(shí)性能很差,因?yàn)樗鼘W(xué)習(xí)到的特征是與人臉相關(guān)的。

自動(dòng)編碼器運(yùn)算過(guò)程:原始input(設(shè)為x)經(jīng)過(guò)加權(quán)(W、b)、映射(Sigmoid)之后得到y(tǒng),再對(duì)y反向加權(quán)映射回來(lái)成為z。通過(guò)反復(fù)迭代訓(xùn)練兩組(W、b),目的就是使輸出信號(hào)與輸入信號(hào)盡量相似。訓(xùn)練結(jié)束之后自動(dòng)編碼器可以由兩部分組成:

1.輸入層和中間層,可以用這個(gè)網(wǎng)絡(luò)來(lái)對(duì)信號(hào)進(jìn)行壓縮

2.中間層和輸出層,我們可以將壓縮的信號(hào)進(jìn)行還原

降噪自動(dòng)編碼器(Denoising Auto Encoder,DAE)

降噪自動(dòng)編碼器就是在自動(dòng)編碼器的基礎(chǔ)之上,為了防止過(guò)擬合問題而對(duì)輸入層的輸入數(shù)據(jù)加入噪音,使學(xué)習(xí)得到的編碼器具有魯棒性而改進(jìn)的,是Bengio在08年論文:Extracting and composing robust features with denoising autoencoders提出的。

論文中關(guān)于降噪自動(dòng)編碼器的示意圖如下,類似于dropout,其中x是原始的輸入數(shù)據(jù),降噪自動(dòng)編碼器以一定概率(通常使用二項(xiàng)分布)把輸入層節(jié)點(diǎn)的值置為0,從而得到含有噪音的模型輸入x?。

這個(gè)破損的數(shù)據(jù)是很有用的,原因有二:

1.通過(guò)與非破損數(shù)據(jù)訓(xùn)練的對(duì)比,破損數(shù)據(jù)訓(xùn)練出來(lái)的Weight噪聲比較小。降噪因此得名。原因不難理解,因?yàn)椴脸臅r(shí)候不小心把輸入噪聲給×掉了。

2.破損數(shù)據(jù)一定程度上減輕了訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)的代溝。由于數(shù)據(jù)的部分被×掉了,因而這破損數(shù)據(jù)一定程度上比較接近測(cè)試數(shù)據(jù)。訓(xùn)練、測(cè)試肯定有同有異,當(dāng)然我們要求同舍異。

堆疊降噪自動(dòng)編碼器(Stacked Denoising Auto Encoder,SDAE)

SDAE的思想就是將多個(gè)DAE堆疊在一起形成一個(gè)深度的架構(gòu)。只有在訓(xùn)練的時(shí)候才會(huì)對(duì)輸入進(jìn)行腐蝕(加噪),訓(xùn)練完成就不需要在進(jìn)行腐蝕。結(jié)構(gòu)如下圖所示:

**逐層貪婪訓(xùn)練:**每層自編碼層都單獨(dú)進(jìn)行非監(jiān)督訓(xùn)練,以最小化輸入(輸入為前一層的隱層輸出)與重構(gòu)結(jié)果之間的誤差為訓(xùn)練目標(biāo)。前K層訓(xùn)練好了,就可以訓(xùn)練K+1層,因?yàn)橐呀?jīng)前向傳播求出K層的輸出,再用K層的輸出當(dāng)作K+1的輸入訓(xùn)練K+1層。

一旦SDAE訓(xùn)練完成, 其高層的特征就可以用做傳統(tǒng)的監(jiān)督算法的輸入。當(dāng)然,也可以在最頂層添加一層logistic regression layer(softmax層),然后使用帶label的數(shù)據(jù)來(lái)進(jìn)一步對(duì)網(wǎng)絡(luò)進(jìn)行 微調(diào)(fine-tuning) ,即用樣本進(jìn)行有監(jiān)督訓(xùn)練。

審核編輯 hhy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3552

    瀏覽量

    133792
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4726

    瀏覽量

    100311
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    新手 Protel 99SE 自動(dòng)編碼和電氣規(guī)則問題

    跟著視頻畫的,到自動(dòng)編碼時(shí)出現(xiàn)這個(gè)問題,哪位大神幫忙
    發(fā)表于 03-12 22:36

    編碼器,編碼器是什么意思

    編碼器,編碼器是什么意思 編碼器 編碼器(encoder)是將信號(hào)
    發(fā)表于 03-08 15:04 ?3059次閱讀

    基于SDAE的深度網(wǎng)絡(luò)模型

    重構(gòu)和原始輸入的較大差別,這使得網(wǎng)絡(luò)無(wú)論在準(zhǔn)確率還是學(xué)習(xí)效率上都無(wú)法得到進(jìn)一步提升。針對(duì)以上問題,提出一種基于稀疏降噪編碼器SDAE)的深度網(wǎng)絡(luò)模型,其核心是稀疏降噪
    發(fā)表于 11-28 17:19 ?8次下載
    基于<b class='flag-5'>SDAE</b>的深度網(wǎng)絡(luò)模型

    稀疏邊緣降噪自動(dòng)編碼器的方法

    為了提高自動(dòng)編碼器算法的學(xué)習(xí)精度,更進(jìn)一步降低分類任務(wù)的分類錯(cuò)誤率,提出一種組合稀疏自動(dòng)編碼器(SAE)和邊緣降噪自動(dòng)編碼器(mDAE)從而形成稀疏邊緣
    發(fā)表于 12-21 14:41 ?3次下載
    稀疏邊緣<b class='flag-5'>降噪</b><b class='flag-5'>自動(dòng)編碼器</b>的方法

    基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    針對(duì)堆疊自動(dòng)編碼機(jī)( SA)容易產(chǎn)生過(guò)擬合而降低垃圾郵件分類精度的問題,提出了一種基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法。首先分析了垃圾郵件分類問題的特殊性,將dropout算
    發(fā)表于 12-26 14:37 ?0次下載
    基于動(dòng)態(tài)dropout的改進(jìn)<b class='flag-5'>堆疊</b><b class='flag-5'>自動(dòng)編碼</b>機(jī)方法

    自動(dòng)編碼器的社區(qū)發(fā)現(xiàn)算法

    準(zhǔn)確.提出一種基于深度稀疏自動(dòng)編碼器的社區(qū)發(fā)現(xiàn)算法CoDDA(a community detection algorithm based on deep sparse autoencoder),嘗試提高使用這些經(jīng)典方法處理高維鄰接矩陣進(jìn)行社區(qū)發(fā)現(xiàn)的準(zhǔn)確性.首先,提出基于跳數(shù)的處理方法,對(duì)稀疏的鄰接矩
    發(fā)表于 01-02 18:32 ?0次下載
    <b class='flag-5'>自動(dòng)編碼器</b>的社區(qū)發(fā)現(xiàn)算法

    編碼器是什么?有什么用

    自動(dòng)編碼器是一種無(wú)監(jiān)督的神經(jīng)網(wǎng)絡(luò)模型,它可以學(xué)習(xí)到輸入數(shù)據(jù)的隱含特征,這稱為編碼(coding),同時(shí)用學(xué)習(xí)到的新特征可以重構(gòu)出原始輸入數(shù)據(jù),稱之為解碼(decoding)。
    的頭像 發(fā)表于 08-02 16:47 ?1.8w次閱讀

    自動(dòng)編碼器與PCA的比較

    編碼器雖然不像 PCA 那般在教科書上隨處可見,但是在早期被拿來(lái)做深度網(wǎng)絡(luò)的逐層預(yù)訓(xùn)練,其地位可見一斑。盡管在 ReLU、Dropout 等神器出現(xiàn)之后,人們不再使用 AutoEncoders 來(lái)
    發(fā)表于 06-11 15:37 ?5832次閱讀

    如何使用深度神經(jīng)網(wǎng)絡(luò)技術(shù)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的全噪聲自動(dòng)編碼器

    ,基于自動(dòng)編碼器的深度神經(jīng)網(wǎng)絡(luò)可以有效的用于數(shù)據(jù)特征提取。自動(dòng)編碼是一種無(wú)監(jiān)督學(xué)習(xí)算法,稀疏自動(dòng)編碼器、降噪自動(dòng)編碼器、收縮
    發(fā)表于 12-11 15:44 ?7次下載
    如何使用深度神經(jīng)網(wǎng)絡(luò)技術(shù)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的全噪聲<b class='flag-5'>自動(dòng)編碼器</b>

    一種改進(jìn)的基于半自動(dòng)編碼器的協(xié)同過(guò)濾推薦算法

    為高效利用推薦系統(tǒng)中用戶和物品的交互歷史和輔助信息,提出一種改進(jìn)的協(xié)同過(guò)濾推薦算法。利用半自動(dòng)編碼器對(duì)用戶和物品的輔助信息進(jìn)行特征提取,將提取岀的特征映射到矩陣分解模型中,通過(guò)反向傳播算法實(shí)現(xiàn)半自動(dòng)編碼器
    發(fā)表于 03-23 16:35 ?4次下載
    一種改進(jìn)的基于半<b class='flag-5'>自動(dòng)編碼器</b>的協(xié)同過(guò)濾推薦算法

    一種混合自動(dòng)編碼器高斯混合模型MAGMM

    高維數(shù)據(jù)的無(wú)監(jiān)督異常檢測(cè)是機(jī)器學(xué)習(xí)的重要挑戰(zhàn)之一。雖然先前基于單一深度自動(dòng)編碼器和密度估計(jì)的方法已經(jīng)取得了顯著的進(jìn)展,但是其僅通過(guò)一個(gè)深度自編碼器來(lái)生成低維表示,這表明沒有足夠的信息來(lái)執(zhí)行后續(xù)
    發(fā)表于 04-13 15:33 ?7次下載
    一種混合<b class='flag-5'>自動(dòng)編碼器</b>高斯混合模型MAGMM

    棧式降噪自動(dòng)編碼器的動(dòng)態(tài)混合推薦算法

    傳統(tǒng)協(xié)同過(guò)濾算法僅依靠用戶評(píng)分?jǐn)?shù)據(jù)的低維向量方法,存在推薦結(jié)果精確度低以及冷啟動(dòng)問題。為此,提出一種新的動(dòng)態(tài)混合推薦算法,將棧式降噪自動(dòng)編碼器融入到基于用戶的協(xié)同過(guò)濾中,學(xué)習(xí)用戶的深層次特征,并與
    發(fā)表于 06-09 15:48 ?7次下載

    如何使用TensorFlow構(gòu)建和訓(xùn)練變分自動(dòng)編碼器

    在本文中,我們將研究一個(gè)非常流行的 AI 用例,用于壓縮數(shù)據(jù)并使用自動(dòng)編碼器重建壓縮數(shù)據(jù)。
    的頭像 發(fā)表于 05-05 16:57 ?2074次閱讀
    如何使用TensorFlow構(gòu)建和訓(xùn)練變分<b class='flag-5'>自動(dòng)編碼器</b>

    基于transformer的編碼器-解碼模型的工作原理

    與基于 RNN 的編碼器-解碼模型類似,基于 transformer 的編碼器-解碼模型由一個(gè)編碼器和一個(gè)解碼
    發(fā)表于 06-11 14:17 ?2029次閱讀
    基于transformer的<b class='flag-5'>編碼器</b>-解碼<b class='flag-5'>器</b>模型的工作原理

    編碼器好壞怎么判斷,編碼器原理

    編碼器(Encoder)是將輸入數(shù)據(jù)轉(zhuǎn)化為特定編碼表示的一種技術(shù)。對(duì)于不同類型的編碼器,評(píng)判其好壞可以從多個(gè)方面進(jìn)行考量,包括編碼質(zhì)量、速度、模型結(jié)構(gòu)等。
    的頭像 發(fā)表于 01-23 10:58 ?1654次閱讀