0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

貝葉斯深度學(xué)習(xí)介紹

科技綠洲 ? 來(lái)源:Python數(shù)據(jù)科學(xué) ? 作者:Python數(shù)據(jù)科學(xué) ? 2023-11-03 10:51 ? 次閱讀

1 Introduction

基于深度學(xué)習(xí)人工智能模型往往精于 “感知” 的任務(wù),然而光有感知是不夠的,“推理” 是更高階人工智能的重要組成部分。比方說(shuō)醫(yī)生診斷,除了需要通過(guò)圖像和音頻等感知病人的癥狀,還應(yīng)該能夠推斷癥狀與表征的關(guān)系,推斷各種病癥的概率,也就是說(shuō),需要有“thinking”的這種能力。具體而言就是識(shí)別條件依賴(lài)關(guān)系、因果推斷、邏輯推理、處理不確定性等。

概率圖模型(PGM)能夠很好處理概率性推理問(wèn)題,然而PGM的弊端在于難以應(yīng)付大規(guī)模高維數(shù)據(jù),比如圖像,文本等。因此,這篇文章嘗試將二者結(jié)合,融合到DBL的框架之中。

比如說(shuō)在電影推薦系統(tǒng)中,深度學(xué)習(xí)適于處理高維數(shù)據(jù),比如影評(píng)(文本)或者海報(bào)(圖像);而概率圖模型適于對(duì)條件依賴(lài)關(guān)系建模,比如觀眾和電影之間的網(wǎng)絡(luò)關(guān)系。

從uncertainty的角度考慮,BDL適合于去處理這樣的復(fù)雜任務(wù)。復(fù)雜任務(wù)的參數(shù)不確定性一般有如下幾種:(1)神經(jīng)網(wǎng)絡(luò)的參數(shù)不確定性;(2)與任務(wù)相關(guān)的參數(shù)不確定性;(3)perception部分和task-specific部分信息傳遞的不確定性。通過(guò)將未知參數(shù)用概率分布而不是點(diǎn)估計(jì)的方式表示,能夠很方便地將這三種uncertainty統(tǒng)一起來(lái)處理(這就是BDL框架想要做的事情)。

另外BDL還有 “隱式的”正則化作用,在數(shù)據(jù)缺少的時(shí)候能夠避免過(guò)擬合。通常BDL由兩部分組成:perception模塊和task-specific模塊。前者可以通過(guò) 權(quán)值衰減或者dropout正則化 (這些方法擁有貝葉斯解釋?zhuān)?,后者由于可?加入先驗(yàn) ,在數(shù)據(jù)缺少時(shí)也能較好地進(jìn)行建模。

當(dāng)然,BDL在實(shí)際應(yīng)用中也存在著挑戰(zhàn),比如時(shí)間復(fù)雜性的問(wèn)題,以及兩個(gè)模塊間信息傳遞的有效性。

2 Deep Learning

這一章主要介紹經(jīng)典的深度學(xué)習(xí)方法,這里不用過(guò)多的篇幅去敘述,文章中提到的方法包括MLP、AutoEncoder、CNN、RNN等。

2.2 AutoEncoders

這一部分提一下自編碼器。這是一種能將輸入編碼為更緊湊表示的神經(jīng)網(wǎng)絡(luò),同時(shí)能夠?qū)⑦@種緊湊表示進(jìn)行重建。這方面的資料也很多,這里主要說(shuō)明一下AE的變種——SDAE(Stacked Denoising AutoEncoders)

圖片

SDAE的結(jié)構(gòu)如上圖所示,和AE不同的是,圖片可以看做輸入數(shù)據(jù)圖片加入噪聲或者做了一些隨機(jī)處理后的結(jié)果(比如可以把圖片中的數(shù)據(jù)隨機(jī)選30%變?yōu)榱悖?。所以SDAE做的就是試圖把處理過(guò)的corrupted data恢復(fù)成clean data。SDAE可以轉(zhuǎn)化為如下優(yōu)化問(wèn)題:

圖片

3 Probabilistic Graphical Model

這一章主要介紹概率圖模型,也是為后面的內(nèi)容做知識(shí)鋪墊的,概率圖模型的相關(guān)資料有不少,因此這里不過(guò)多敘述。文章主要介紹的是有向貝葉斯網(wǎng)(Bayesian Networks),如LDA等模型。LDA可以拓展出更多的topic model,如推薦系統(tǒng)中的協(xié)同話題回歸(CTR)。

4 Bayesian Deep Learning

在這個(gè)部分,作者列舉了一些BDL模型在推薦、控制等領(lǐng)域的應(yīng)用,我們可以看到,眾多當(dāng)前實(shí)用的模型都可以統(tǒng)一到BDL這個(gè)大框架之下:

圖片

4.1 A Brief History of Bayesian Neural Networks and Bayesian Deep Learning

和BDL很相似的是BNN(Bayesian neural networks),這是一個(gè)相當(dāng)古老的課題,然而B(niǎo)NN只是本文BDL框架下的一個(gè)子集——BNN相當(dāng)于只有perception部分的BDL。

4.2 General Framework

如下圖是文章提出的基本框架,紅色部分是 感知模塊 ,藍(lán)色部分是 任務(wù)模塊 。紅色部分通常使用各種概率式的神經(jīng)網(wǎng)絡(luò)模型,而藍(lán)色部分可以是貝葉斯網(wǎng)絡(luò),DBN,甚至是隨機(jī)過(guò)程,這些模型會(huì)以概率圖的形式表示出來(lái)。

圖片

在這個(gè)基本框架中往往有三種變量:perception variables 圖片(圖中的X,W), hinge variables 圖片(圖中的H)和task variables 圖片(圖中的A,B,C)。通常來(lái)說(shuō),紅色模塊和hinge variables之間的連接是獨(dú)立的。因此,對(duì)于能歸納到BDL框架下的模型,我們都可以找到這樣的結(jié)構(gòu)——兩個(gè)模塊,三種變量。

BDL可以對(duì)紅藍(lán)兩個(gè)部分之間信息交換的uncertainty進(jìn)行建模,這個(gè)問(wèn)題等價(jià)研究圖片的uncertainty(在公式中的體現(xiàn)就是條件方差)。方差的不同假設(shè)有:Zero-Variance(ZV,沒(méi)有不確定性,方差為零),Hyper-Variance(HV,方差大小由超參數(shù)決定),Learnable Variance(LV,使用可學(xué)習(xí)參數(shù)表示)。顯然,靈活性上有LV>HV>ZV。

4.3 Perception Component

通常來(lái)說(shuō),這一部分應(yīng)該采用BNN等模型,當(dāng)然我們可以使用一些更加靈活的模型,比如RBM,VAE,以及近來(lái)比較火的GAN等。文章提到了以下幾個(gè)例子:

Restricted Boltzman Machine :RBM是一種特殊的BNN,主要特點(diǎn)有:(1)訓(xùn)練時(shí)不需要反向傳播的過(guò)程;(2)隱神經(jīng)元是binary的。RBM的具體結(jié)構(gòu)如下:

圖片

RBM通過(guò)Contrastive Divergence進(jìn)行訓(xùn)練(而不是反向傳播),訓(xùn)練結(jié)束后通過(guò)邊緣化其他neurons就能求出圖片圖片。

Probabilistic Generalized SDAE: 我們將2.2提到的SDAE加以改進(jìn),如果假設(shè)clear input 圖片和corrupted input 圖片都是可以觀察的 ,便可以定義如下的Probabilistic SDAE:

圖片

Variational Autoencoders :VAE的基本想法就是通過(guò)學(xué)習(xí)參數(shù)最大化ELBO,VAE也有諸多變種,比如IWAE(Importance weighted Autoencoders),Variational RNN等。

Natural-Parameter Networks :與確定性輸入的vanilla NN不同,NPN將一個(gè)分布作為輸入(和VAE只有中間層的output是分布不同)。當(dāng)然除了高斯分布,其他指數(shù)族也可也當(dāng)做NPN的輸入,如Gamma、泊松等。

4.4 Task-Specific Component

這一個(gè)模塊的主要目的是將概率先驗(yàn)融合進(jìn)BDL模型中(很自然的我們可以用PGM來(lái)表示),這個(gè)模塊可以是Bayesian Network,雙向推斷網(wǎng)絡(luò),甚至是隨機(jī)過(guò)程。

Bayesian Networks :貝葉斯網(wǎng)是最常見(jiàn)的task-specific component。除了LDA,另一個(gè)例子是PMF(Probabilistic Matrix Factorization),原理是使用BN去對(duì)users,items和評(píng)分的條件依賴(lài)性建模。以下是PMF假設(shè)的生成過(guò)程:

圖片

Bidirectional Inference Networks :Deep Bayesian Network不止關(guān)注“淺相關(guān)”和線性結(jié)構(gòu),還會(huì)關(guān)注隨機(jī)變量的非線性相關(guān)和模型的非線性結(jié)構(gòu)。BIN是其中的一個(gè)例子。

圖片

Stochastic Processes :隨機(jī)過(guò)程也可以作為T(mén)ask-component,比如說(shuō)用維納過(guò)程模擬離散布朗運(yùn)動(dòng),用泊松過(guò)程模擬處理語(yǔ)音識(shí)別的任務(wù)等。隨機(jī)過(guò)程可以被看做一種動(dòng)態(tài)貝葉斯網(wǎng)(DBN)。

5 Concerte BDL Models and Applications

上一章討論完構(gòu)成BDL的基本模型結(jié)構(gòu),我們自然希望能夠把這一套大一統(tǒng)的框架運(yùn)用在一些實(shí)際的問(wèn)題上。因此,這一章主要討論了BDL的各種應(yīng)用場(chǎng)景,包括推薦系統(tǒng),控制問(wèn)題等。在這里我們默認(rèn)任務(wù)模塊使用vanilla Bayesian networks作為這個(gè)部分的模型。

5.1 Supervised Bayesian Deep Learning for Recommender Systems

Collaborative Deep Learning 。文章在這個(gè)部分提出Collaborative Deep Learning(CDL)來(lái)處理推薦系統(tǒng)的問(wèn)題,這種方法連接了content information(一般使用深度學(xué)習(xí)方法處理)和rating matrix(一般使用協(xié)同過(guò)濾)。

使用4.3.2提到的Probabilistic SDAE,CDL模型的生成過(guò)程如下:

圖片

為了效率,我們可以設(shè)置趨向正無(wú)窮,這個(gè)時(shí)候,CDL的圖模型就可以用下圖來(lái)表示了:

圖片

紅色虛線框中的就是SDAE(圖上是L=2的情況),右邊是degenerated CDL,我們可以看到,degenerated CDL只有SDAE的encoder部分。根據(jù)我們之前定義過(guò)的,圖片就是hinge variable,而圖片是task variables,其他的是perception variables。

那么我們應(yīng)該如何訓(xùn)練這個(gè)模型呢?直觀來(lái)看,由于現(xiàn)在 所有參數(shù)都被我們當(dāng)做隨機(jī)變量 ,我們可以使用純貝葉斯方法,比如VI或MCMC,然而這樣計(jì)算量往往是巨大的,因此,我們使用一個(gè)EM-style算法去獲得MAP估計(jì)。先定義需要優(yōu)化的目標(biāo),我們希望最大化后驗(yàn)概率,可以等價(jià)為最大化給定圖片的joint log-likelihood。

圖片

注意,當(dāng)圖片趨向無(wú)窮時(shí),訓(xùn)練CDL的概率圖模型就退化為了訓(xùn)練下圖的神經(jīng)網(wǎng)絡(luò)模型:兩個(gè)網(wǎng)絡(luò)有相同的加了噪音的輸入,而輸出是不同的。

圖片

有了優(yōu)化的目標(biāo),參數(shù)該如何去更新呢?和巧妙的EM算法的思路類(lèi)似,我們通過(guò)迭代的方法去逐步找到一個(gè)局部最優(yōu)解:

圖片

當(dāng)我們估計(jì)好參數(shù),預(yù)測(cè)新的評(píng)分就容易了,我們只需要求期望即可,也就是根據(jù)如下公式計(jì)算:

圖片

Bayesian Collaborative Deep Learning :除了這種模型,我們可以對(duì)上面提到的CDL進(jìn)行另外一種擴(kuò)展。這里我們不用MAP估計(jì),而是sampling-based算法。主要過(guò)程如下:

圖片

當(dāng)圖片趨向正無(wú)窮并使用adaptive rejection Metropolis sampling時(shí),對(duì)圖片采樣就相當(dāng)于BP的貝葉斯泛化版本。

Marginalized Collaborative Deep Learning :在SDAE的訓(xùn)練中,不同訓(xùn)練的epoch使用不同的corrupted input,因此訓(xùn)練過(guò)程中需要遍歷所有的epochs,Marginalized SDAE做出了改進(jìn):通過(guò)邊緣化corrupted input直接得到閉式解。

Collaborative Deep Ranking :除了關(guān)注精確的評(píng)分,我們也可以直接關(guān)注items的排名,比如CDR算法:

圖片

這個(gè)時(shí)候我們需要優(yōu)化的log-likelihood就會(huì)成為:

圖片

Collaborative Variational Autoencoders :另外,我們可以將感知模塊的Probabilistic SDAE換成VAE,則生成過(guò)程如下:

圖片

總之,推薦系統(tǒng)問(wèn)題往往涉及高維數(shù)據(jù)(文本、圖像)處理以及條件關(guān)系推斷(用戶物品關(guān)系等),CDL這類(lèi)模型使用BDL的框架,能發(fā)揮很重要的作用。當(dāng)然其他監(jiān)督學(xué)習(xí)的任務(wù)也可以參考推薦系統(tǒng)的應(yīng)用使用CDL的方法。

5.2 Unsupervised Bayesian Deep Learning for Topic Models

這一小節(jié)過(guò)渡到非監(jiān)督問(wèn)題中,在這類(lèi)問(wèn)題中我們不再追求 “match” 我們的目標(biāo),而更多是 “describe” 我們的研究對(duì)象。

Relational Stacked Denoising Autoencoders as Topic Models (RSDAE) :在RSDAE中我們希望能在關(guān)系圖的限制下學(xué)到一組topics(或者叫潛因子)。RSDAE能“原生地”集成潛在因素的層次結(jié)構(gòu)和可用的關(guān)系信息。其圖模型的形式和生成過(guò)程如下:

圖片

圖片

同樣的,我們最大化后驗(yàn)概率,也就是最大化各種參數(shù)的joint log-likelihood:

圖片

訓(xùn)練的時(shí)候我們依然使用EM-style的算法去找MAP估計(jì),并求得一個(gè)局部最優(yōu)解(當(dāng)然也可以使用一些帶skip的方法嘗試跳出局部最優(yōu)),具體如下:

圖片

Deep Poisson Factor Analysis with Sigmoid Belief Networks :泊松過(guò)程適合對(duì)于非負(fù)計(jì)數(shù)相關(guān)的過(guò)程建模,考慮到這個(gè)特性,我們可以嘗試把Poisson factor analysis(PFA)用于非負(fù)矩陣分解。這里我們以文本中的topic問(wèn)題作為例子,通過(guò)取不同的先驗(yàn)我們可以有多種不同的模型。

圖片

比如說(shuō),我們可以通過(guò)采用基于sigmoid belief networks(SBN)的深度先驗(yàn),構(gòu)成DeepPFA模型。DeepPFA的生成過(guò)程具體如下:

圖片

這個(gè)模型訓(xùn)練的方式是用Bayesian Conditional Density Filtering(BCDF),這是MCMC的一種online版本;也可以使用Stochastic Gradient Thermostats(SGT),屬于hybrid Monto Carlo類(lèi)的采樣方法。

Deep Poisson Factor Analysis with Restricted Boltzmann Machine :我們也可以將DeepPFA中的SBN換成RBM模型達(dá)到相似的效果。

可以看到,在基于BDL的話題模型中, 感知模塊用于推斷文本的topic hierarchy,而任務(wù)模塊用于對(duì)詞匯與話題的生產(chǎn)過(guò)程,詞匯-話題關(guān)系,文本內(nèi)在關(guān)系建模

5.3 Bayesian Deep Representation Learning for Control

前面兩小節(jié)主要談?wù)揃DL在監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)的應(yīng)用,這一節(jié)主要關(guān)注另外一個(gè)領(lǐng)域:representation learning。用控制問(wèn)題為例。

Stochastic Optimal Control :在這一節(jié),我們考慮一個(gè)未知?jiǎng)討B(tài)系統(tǒng)的隨機(jī)最優(yōu)控制問(wèn)題,在BDL的框架下解決的具體過(guò)程如下:

圖片

BDL-Based Representation Learning for Control :為了能夠優(yōu)化上述問(wèn)題,有三個(gè)關(guān)鍵的部分,具體如下:

圖片

Learning Using Stochastic Gradient Variational Bayes :該模型的損失函數(shù)是如下這種形式:

圖片

在控制的問(wèn)題中,我們通常希望能夠從原始輸入中獲取語(yǔ)義信息,并在系統(tǒng)狀態(tài)空間中保持局部線性。而B(niǎo)DL的框架正好適用這一點(diǎn),兩個(gè)組件分別能完成不同的工作:感知模塊可以捕獲 live video,而任務(wù)模塊可以推斷動(dòng)態(tài)系統(tǒng)的狀態(tài)。

5.4 Bayesian Deep Learning for Other Applications

除了上面提到的,BDL還有其他諸多運(yùn)用場(chǎng)景:鏈路預(yù)測(cè)、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、語(yǔ)音、時(shí)間序列預(yù)測(cè)等。比如,在鏈路預(yù)測(cè)中,可以將GCN作為感知模塊,將stochastic blockmodel作為任務(wù)處理模塊等。

6 Conclusion and Future Research

現(xiàn)實(shí)中很多任務(wù)都會(huì)涉及兩個(gè)方面:感知高維數(shù)據(jù)(圖像、信號(hào)等)和隨機(jī)變量的概率推斷。貝葉斯深度學(xué)習(xí)(BDL)正是應(yīng)對(duì)這種問(wèn)題的方案: 結(jié)合了神經(jīng)網(wǎng)絡(luò)( NN )和概率圖模型(PGM)的長(zhǎng)處 。而廣泛的應(yīng)用使得BDL能夠成為非常有價(jià)值的研究對(duì)象,目前這類(lèi)模型仍然有著眾多可以挖掘的地方。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236517
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3062

    瀏覽量

    48575
  • 貝葉斯
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    12540
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5437

    瀏覽量

    120794
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    機(jī)器學(xué)習(xí)的樸素講解

    秦剛剛的機(jī)器學(xué)習(xí)成長(zhǎng)之路之樸素
    發(fā)表于 05-15 14:41

    六大步驟學(xué)習(xí)算法

    學(xué)習(xí)算法的五個(gè)步驟
    發(fā)表于 07-16 16:57

    樸素法的優(yōu)缺點(diǎn)

    樸素法(1) 之 基礎(chǔ)概念
    發(fā)表于 08-05 11:32

    常用的分類(lèi)方法:樸素

    統(tǒng)計(jì)學(xué)習(xí)方法樸素
    發(fā)表于 11-05 09:24

    對(duì)樸素算法的理解

    我對(duì)樸素算法的理解
    發(fā)表于 05-15 14:13

    全概率公式與公式分享

    全概率公式與公式(一)
    發(fā)表于 06-08 15:14

    使用PyMC3包實(shí)現(xiàn)線性回歸

    ,使用更多的數(shù)據(jù)更新這個(gè)分布,這樣我們就可以更加確定參數(shù)可以取的值。這個(gè)過(guò)程被稱(chēng)為更新  有了上面的簡(jiǎn)單介紹,我們已經(jīng)知道了
    發(fā)表于 10-08 15:59

    算法(bayesian)介紹

    是基于概率的一種算法,是Thomas Bayes:一位偉大的數(shù)學(xué)大師所創(chuàng)建的。理論
    發(fā)表于 06-01 17:58 ?0次下載

    網(wǎng)絡(luò)分析

    網(wǎng)絡(luò)
    發(fā)表于 03-31 10:40 ?2次下載

    機(jī)器學(xué)習(xí)之樸素應(yīng)用教程

    今天介紹機(jī)器學(xué)習(xí)中一種基于概率的常見(jiàn)的分類(lèi)方法,樸素,之前介紹的KNN, decision
    發(fā)表于 11-25 12:49 ?1361次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>之樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>應(yīng)用教程

    基于概率的常見(jiàn)的分類(lèi)方法--樸素

    本文介紹機(jī)器學(xué)習(xí)中一種基于概率的常見(jiàn)的分類(lèi)方法,樸素,之前介紹的KNN, decision
    的頭像 發(fā)表于 02-03 14:37 ?5164次閱讀
    基于概率的常見(jiàn)的分類(lèi)方法--樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>

    機(jī)器學(xué)習(xí)之樸素

    學(xué)習(xí)過(guò)概率的人一定知道貝葉斯定理,在信息領(lǐng)域內(nèi)有著無(wú)與倫比的地位。算法是基于貝葉斯定理的一類(lèi)算法,主要用來(lái)解決分類(lèi)和回歸問(wèn)題。人工智能之機(jī)器學(xué)
    發(fā)表于 05-29 09:01 ?862次閱讀

    統(tǒng)計(jì)的一個(gè)實(shí)踐案例讓你更快的對(duì)算法有更多的了解

    為了大家可以對(duì)算法有更多的了解,為大家整理過(guò)一篇關(guān)于算法的文章。今天將為大家
    的頭像 發(fā)表于 07-16 17:15 ?1.4w次閱讀

    一文秒懂優(yōu)化/Bayesian Optimization

    ,大神/優(yōu)化專(zhuān)家們求輕噴,覺(jué)得不錯(cuò)的記得幫點(diǎn)贊/在看/轉(zhuǎn)發(fā)幫擴(kuò)散哦!謝謝。 梳理這個(gè)問(wèn)題有這么兩個(gè)原因: 1、在工業(yè)界,最近我看到不少同學(xué)在探索并使用
    的頭像 發(fā)表于 04-09 11:26 ?1.6w次閱讀
    一文秒懂<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>優(yōu)化/Bayesian Optimization

    簡(jiǎn)述對(duì)公式的基本理解

    簡(jiǎn)述對(duì)公式的基本理解
    發(fā)表于 10-18 10:01 ?0次下載