0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

前饋網(wǎng)絡(luò):如何讓深度學(xué)習(xí)工作更像人腦

mK5P_AItists ? 來(lái)源:lp ? 2019-03-25 11:22 ? 次閱讀

摘要:計(jì)算神經(jīng)科學(xué)是一門超級(jí)跨學(xué)科的新興學(xué)科,幾乎綜合信息科學(xué),物理學(xué), 數(shù)學(xué),生物學(xué),認(rèn)知心理學(xué)等眾多領(lǐng)域的最新成果。關(guān)注的是神經(jīng)系統(tǒng)的可塑性與記憶,抑制神經(jīng)元與興奮神經(jīng)元的平衡。

0 背景

計(jì)算神經(jīng)科學(xué)是一門超級(jí)跨學(xué)科的新興學(xué)科,幾乎綜合信息科學(xué),物理學(xué), 數(shù)學(xué),生物學(xué),認(rèn)知心理學(xué)等眾多領(lǐng)域的最新成果。關(guān)注的是神經(jīng)系統(tǒng)的可塑性與記憶,抑制神經(jīng)元與興奮神經(jīng)元的平衡。計(jì)算神經(jīng)科學(xué)在做的事情是先主動(dòng)設(shè)計(jì)這個(gè)一個(gè)系統(tǒng),看看如何做到需要的功能(自上而下),然后拿著這個(gè)東西回到生物的世界里去比較(由下而上)。人工智能和計(jì)算神經(jīng)科學(xué)具有某種內(nèi)在的同質(zhì)性, 唯一的區(qū)別可能是人工智能可以不必拘泥生物的限制,或者也是為什么他最終或許會(huì)比生物網(wǎng)絡(luò)表現(xiàn)更好。

今年的計(jì)算與系統(tǒng)神經(jīng)科學(xué)大會(huì) -Cosyne在葡萄牙結(jié)束。 這個(gè)會(huì)議和nips都是神經(jīng)網(wǎng)絡(luò)與計(jì)算方面的最重要盛會(huì), 而方向上一個(gè)更偏深度學(xué)習(xí), 一個(gè)更偏和生物有關(guān)的計(jì)算。而近兩年的趨勢(shì)是, 兩個(gè)會(huì)議的交叉主題越來(lái)越多。 對(duì)于會(huì)議涵蓋的幾個(gè)方面, 做一個(gè)小的總結(jié),也算涵蓋了計(jì)算神經(jīng)科學(xué)的主要方面。

1: 前饋網(wǎng)絡(luò):如何讓深度學(xué)習(xí)工作更像人腦

在這個(gè)session, Yann Lecun 作為邀請(qǐng)演講人, 總結(jié)了CNN受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)的歷史, 并提出他最近的核心方向 -learning predictive model of world(學(xué)習(xí)建立預(yù)測(cè)性的模型)。 指出深度學(xué)習(xí)的未來(lái)在于以建立預(yù)測(cè)性模型為核心的半監(jiān)督學(xué)習(xí), 這樣可以彌補(bǔ)普通的監(jiān)督學(xué)習(xí)或model free reinforcement learning(無(wú)模型強(qiáng)化學(xué)習(xí))的巨大缺陷-缺乏穩(wěn)定的先驗(yàn)?zāi)P汀?比如你要做一個(gè)視頻有關(guān)的處理, 讓他看完youtube上的視頻并不停的預(yù)測(cè)視頻下一幀的狀態(tài), 這樣預(yù)訓(xùn)練后再去進(jìn)行任何任務(wù)都會(huì)更方便。 yann認(rèn)為這是dl的未來(lái)方向。

一個(gè)目前突出的成就是大量預(yù)訓(xùn)練產(chǎn)生的NLP模型Bert在各大任務(wù)上都破了記錄。 關(guān)于如何進(jìn)行半監(jiān)督學(xué)習(xí), auto-encoder和對(duì)抗學(xué)習(xí)都是方向。 在此處無(wú)監(jiān)督,監(jiān)督, 和強(qiáng)化學(xué)習(xí)的界限已經(jīng)接近。 強(qiáng)化學(xué)習(xí)不再只是蛋糕上的櫻桃, 無(wú)監(jiān)督學(xué)習(xí)也不再是難以操作的暗物質(zhì)。 預(yù)測(cè)性學(xué)習(xí)用的是監(jiān)督學(xué)習(xí)的方法, 干的是無(wú)監(jiān)督學(xué)習(xí)的事情, 而最后被用于強(qiáng)化學(xué)習(xí)。 不難看出, 這個(gè)方法論和計(jì)算神經(jīng)科學(xué)領(lǐng)域的predictive coding間的聯(lián)系, 和好奇心的聯(lián)系。 整個(gè)工作都符合Karl Friston 關(guān)于自由能最小的理論框架。

有關(guān)前饋網(wǎng)絡(luò)和計(jì)算神經(jīng)科學(xué)的交叉, 另外幾個(gè)speaker 著重在于研究生物系統(tǒng)如何實(shí)現(xiàn)類似反向傳播算法的過(guò)程。 反饋的神經(jīng)信號(hào)和local的Hebbian rule等的結(jié)合, 可以實(shí)現(xiàn)類似于反向傳播的修正,也就是說(shuō)大家在尋找反向傳播的生物基礎(chǔ),而且還非常有希望。

當(dāng)然比較CNN不同層次的representation 和生物視神經(jīng)的表示已經(jīng)是老課題, 目前imagenent上預(yù)訓(xùn)練的網(wǎng)絡(luò)經(jīng)常被用來(lái)和生物神經(jīng)網(wǎng)絡(luò)的活動(dòng)比較, 逐步被作為一種衡量生物神經(jīng)網(wǎng)絡(luò)表達(dá)復(fù)雜度的標(biāo)尺, 也是一個(gè)有意思的方法。

2,多巴胺(Dopamine)在學(xué)習(xí)回路中的作用(Ilan Witten, Princeton)

多巴胺神經(jīng)元和回路是計(jì)算神經(jīng)科學(xué)和強(qiáng)化學(xué)習(xí)的熱點(diǎn)問(wèn)題, 它與我們的一切行為有關(guān), 影響我們的喜樂哀愁。 dopamine的經(jīng)典理論被認(rèn)為傳遞對(duì)未來(lái)獎(jiǎng)勵(lì)的預(yù)期信息和真實(shí)獎(jiǎng)勵(lì)的差距, 這恰好對(duì)應(yīng)強(qiáng)化學(xué)習(xí)理論的TD誤差。 后來(lái)人們發(fā)現(xiàn)這個(gè)想法太簡(jiǎn)單了。 一些新的結(jié)果指出dopamine神經(jīng)元作為一個(gè)數(shù)量巨大的群體,編碼的信息不僅包括獎(jiǎng)勵(lì)信號(hào), 還有和獎(jiǎng)勵(lì)有關(guān)的的信號(hào)特征,比如顏色,物體的運(yùn)動(dòng)方向。生物系統(tǒng)為什么這樣選擇自己的強(qiáng)化學(xué)習(xí)算法, 非常值得探討。

另一些工作圍繞dopamine和強(qiáng)化學(xué)習(xí)的研究通過(guò)實(shí)驗(yàn)驗(yàn)證dopamine的數(shù)學(xué)理論, 模型結(jié)合實(shí)驗(yàn)的方法可以很好的test這方面的idea。 人們一直在爭(zhēng)論dopamine對(duì)應(yīng)value function本身還是TD誤差, 你能不能設(shè)計(jì)一個(gè)研究的方法很好的區(qū)分了前者和后者? 事實(shí)上真實(shí)情況永遠(yuǎn)比理論模型復(fù)雜的多。

3.神經(jīng)編碼的本質(zhì): 高維vs低維(Kenneth Harris, UCL)

大家都知道人腦有1000億個(gè)神經(jīng)元, 近似于我們說(shuō)的無(wú)窮多,為什么?為什么要這么多?

神經(jīng)編碼的本質(zhì)屬性是維度, 大部分時(shí)候, 當(dāng)我們對(duì)世界的理解抽離到最后, 就只剩下維度。 首先神經(jīng)編碼必須是高維的, 這對(duì)應(yīng)我們的大千世界信息是豐富的。 同時(shí)我們又不希望神經(jīng)編碼的維度太高,我們們希望在能夠表達(dá)現(xiàn)實(shí)世界的豐富信息的時(shí)候, 這個(gè)表征流行的維度越低越好, 反過(guò)來(lái)說(shuō),就是我們希望在某種限制條件下盡可能充分的表達(dá)真實(shí)世界的信息。 其背后的合理性是什么?

這組實(shí)驗(yàn)讓小鼠不停的觀測(cè)從自然環(huán)境中隨機(jī)抽取的圖像樣本(nature image), 然后我們記錄視皮層的神經(jīng)活動(dòng), 并通過(guò)PCA等降維手段來(lái)觀測(cè)神經(jīng)表征里的維度。 首先, 我們最終得到的結(jié)果是我們的生物神經(jīng)網(wǎng)絡(luò)確實(shí)具有無(wú)窮多(和圖像的總數(shù)一樣多)的維度(所以需要無(wú)窮多神經(jīng)元表達(dá)), 這是由于自然環(huán)境中的物體太豐富了,自然信息的維度可以是接近正無(wú)窮, 這也是為什么我們的腦內(nèi)需要這么多的神經(jīng)細(xì)胞。

然后, 我們發(fā)現(xiàn)并非每個(gè)維度都是均衡的, 每個(gè)PC維度所刻畫的信息量均勻的下降, 而且這個(gè)下降呈現(xiàn)的衰減符合一個(gè)冪律分布。 而這個(gè)冪律的數(shù)值非常關(guān)大。 我們知道這個(gè)數(shù)值越小, 衰減就越慢,冪律就越接近肥尾, 這背后對(duì)應(yīng)的是什么呢? 如果我們用流型的思維看, 這個(gè)指數(shù)大小正對(duì)應(yīng)流行曲面的形狀(你可以想象一下極限情況, 如果我們只有兩個(gè)PC,后面的數(shù)值均是0,我們的流型是一個(gè)平面) 。 越小的指數(shù), 代表高維的成分越顯著,流型維度大到一定程度, 就會(huì)出現(xiàn)分型結(jié)構(gòu)(連續(xù)但不可導(dǎo))。 一個(gè)高維的分型結(jié)構(gòu)意味著,每個(gè)樣例可能都占據(jù)著一個(gè)高峰, 而稍微一離開, 就是波谷。

從低維流型到高維分型

這在機(jī)器學(xué)習(xí)里,恰恰意味著泛化能力很差, 如果你稍微移動(dòng)一下這個(gè)曲面, 分類就可能變化。 如果指數(shù)比較大呢? 指數(shù)比較大, 意味著高維成分衰減很快, 這個(gè)時(shí)候, 我們會(huì)得到更為平滑的流行曲面,從而得到更好的泛化能力。那么指數(shù)可不可以盡量高呢? 答案是不行, 因?yàn)槟菢訉?dǎo)致的表征維度過(guò)低, 剛剛已經(jīng)說(shuō)了很多遍,那樣我們就失去了對(duì)豐富世界的表達(dá)能力(維度越高越好做分類,可以容納更多互相正交的分類, 模型容量高)。

總結(jié)一下這個(gè)冪律的指數(shù)值有兩個(gè)關(guān)鍵點(diǎn), 當(dāng)指數(shù)比較小的時(shí)候流形都是剛剛講的分型結(jié)構(gòu), 第一個(gè)關(guān)鍵點(diǎn)是從分型到平滑, 而第二個(gè)關(guān)鍵點(diǎn)是神經(jīng)全息成像, 當(dāng)衰減速度快到一定程度(低維到一定程度), 我們就會(huì)得到類似全息成像的現(xiàn)象,此時(shí)神經(jīng)信息處處是冗余, 你隨便找一組神經(jīng)元都可以得到整個(gè)外部世界的信息。

自然界用高維冗余的非線性系統(tǒng)表達(dá)低維的表征,來(lái)對(duì)現(xiàn)實(shí)世界降維。 這是神經(jīng)科學(xué)和深度學(xué)習(xí)恒久不變的主題。 一般情況下高維會(huì)增加分類的效率和模型的容量(正交性), 而低維則有利于泛化(平滑性, 把相關(guān)類別的編碼放到一起)。 而在當(dāng)下的深度學(xué)習(xí)里, 我們恰恰缺乏這種能力, 用同樣的指數(shù)實(shí)驗(yàn)測(cè)量CNN的信息壓縮特性, 我們發(fā)現(xiàn), 它的指數(shù)衰減明顯的慢于小鼠,也就是依然保留了更多高維成分, 這使得它對(duì)高維信息(往往在空間上意味著高頻)極為敏感。 當(dāng)你在已經(jīng)識(shí)別很好的圖像加一點(diǎn)噪聲(高頻信息)它就認(rèn)錯(cuò)了。

這個(gè)講話解釋了很多困擾我的謎團(tuán), 比如為什么需要那么多神經(jīng)元, 深度學(xué)習(xí)的泛化問(wèn)題等等, 同時(shí)把學(xué)習(xí)算法和冪律巧妙的聯(lián)系在了一起。

自然圖像與神經(jīng)活動(dòng)中的冪律

4, 尋找RNN的動(dòng)力學(xué)維度

(Eric Shea-Brown, Univesity of Washington)

另一個(gè)研究指出用RNN解決任務(wù)時(shí)候自身動(dòng)力學(xué)維度與任務(wù)維度的匹配關(guān)系。 如何預(yù)測(cè)RNN所表征的系統(tǒng)維度? 首先維度取決于背后的動(dòng)力學(xué), 然后網(wǎng)絡(luò)的動(dòng)力學(xué)取決于結(jié)構(gòu), 我們可以用一套啟發(fā)于物理學(xué)的方法來(lái)從結(jié)構(gòu)推出動(dòng)力學(xué)維度。 這個(gè)方法通過(guò)定位神經(jīng)網(wǎng)絡(luò)里的motif來(lái)預(yù)測(cè)其維度, 可以說(shuō)和費(fèi)曼的場(chǎng)論異曲同工。

然后這個(gè)維度有什么意義? 我們說(shuō)這個(gè)維度與我們要執(zhí)行任務(wù)本身的復(fù)雜度高度相關(guān)。如果換一個(gè)在平面上的簡(jiǎn)單分類, 我們不需要實(shí)用自身動(dòng)力學(xué)維度很高的系統(tǒng)做, 而如果這個(gè)分類就是高維的, 那么具有高維動(dòng)力學(xué)的系統(tǒng)往往優(yōu)于低維的。 這揭示了網(wǎng)絡(luò)動(dòng)力學(xué)與真實(shí)世界動(dòng)力學(xué)的內(nèi)在聯(lián)系。而事實(shí)上, 一般在混沌狀態(tài)的網(wǎng)絡(luò)動(dòng)力學(xué)維度更高, 這無(wú)形中揭示了,混沌沒有看上去混亂,它可能恰恰是我們強(qiáng)大認(rèn)知能力的基礎(chǔ)。

5, 生物導(dǎo)航Navigation

(Edward Moser, Kavli institute, grid cell諾貝爾獎(jiǎng)得主)

導(dǎo)航與空間運(yùn)動(dòng)相關(guān)的問(wèn)題一直是計(jì)算神經(jīng)科學(xué)的熱點(diǎn)主題。 grid cell實(shí)現(xiàn)所謂的物體位置編碼,可以把空間里的核心物體位置編碼成一組向量。 這種能力是如何一點(diǎn)點(diǎn)隨學(xué)習(xí)和發(fā)育產(chǎn)生的? 這是一個(gè)非常大的主題,也是無(wú)數(shù)計(jì)算神經(jīng)科學(xué)家的目標(biāo)。

Navigation的一個(gè)核心主題是cognitive map 的理論。 它說(shuō)的是在大腦中存在一個(gè)空間表示的神經(jīng)載體。 你我都存在在這個(gè)認(rèn)知空間里, 它獨(dú)立于你我而存在。 根據(jù)Okeefe的理論, 這個(gè)空間是hippocampus的grid cells 和place cell 作為基礎(chǔ)提供的。 grid cell類似于一個(gè)巨大的坐標(biāo)系統(tǒng), 而place cell 可以在每個(gè)不同的空間里重新編碼(remapping)。 這個(gè)十分有魅力的理論至今其實(shí)很多問(wèn)題依然是懸案。

在這次的會(huì)議上, grid cell 理論的創(chuàng)始人Moser給了key speech, 他主要描述了這種空間的神經(jīng)編碼應(yīng)該以對(duì)空間的物體進(jìn)行向量編碼為基礎(chǔ), 每個(gè)物體對(duì)應(yīng)一個(gè)向量編碼。 同時(shí), 他講解了提供這種空間結(jié)構(gòu)的基礎(chǔ)網(wǎng)絡(luò)是如何從發(fā)育階段一點(diǎn)點(diǎn)形成的。 從發(fā)育階段理解一個(gè)復(fù)雜問(wèn)題通??梢园堰@個(gè)問(wèn)題簡(jiǎn)化。

圍繞這一主題的其它講話里有幾個(gè)來(lái)自以色列的研究特色鮮明。維茲曼研究所的 Alon Rubin 揭示出我們所認(rèn)為的認(rèn)知地圖即使對(duì)應(yīng)同一個(gè)環(huán)境也不僅有一個(gè),在同一個(gè)房間運(yùn)動(dòng)的小鼠可以解碼若干地圖, 這一點(diǎn)讓我們不僅思考這些地圖到底是干什么的, 顯然它們與不只對(duì)應(yīng)我們所認(rèn)識(shí)的絕對(duì)空間, 因?yàn)榻^對(duì)空間只有一個(gè)。

另一個(gè)來(lái)自以色列的Gily嗎Ginosar 則展示了如何尋找蝙蝠頭腦里的grid cell, 并揭示出它符合一個(gè)三維空間的密堆積周期結(jié)構(gòu) 。 因?yàn)轵鸬纳羁臻g是三維的, 所以顯然它的空間表征也要是這個(gè)維度。 這點(diǎn)讓我們不禁想象, 如果存在4維和5維的空間,這個(gè)表示是什么樣的? 到底是我們的認(rèn)知確定了我們的世界, 還是我們的世界決定了我們的認(rèn)知?

另外一個(gè)核心問(wèn)題是我們頭腦里的認(rèn)知地圖是egocentric(自我中心) 還是allocentric(外部環(huán)境中心),所謂以自我為中心(以上下左右表達(dá)整個(gè)世界,自我就是坐標(biāo)原點(diǎn)), 還是以一個(gè)外界的坐標(biāo)系(如不同的地標(biāo))為中心。 經(jīng)典的認(rèn)知地圖模型是allocentric的外部坐標(biāo)表示, 然而事實(shí)上很多研究指出, 自我為中心可以找到很多實(shí)驗(yàn)證據(jù) 。因此兩個(gè)派別進(jìn)行了激烈的辯論。

當(dāng)然也有些會(huì)議上的報(bào)告討論了place cell的真實(shí)性“它們可能僅僅是一些依照時(shí)間序列依次發(fā)放的神經(jīng)集團(tuán)” 來(lái)自MIT的Buffalo指出。

最后, 這個(gè)方向的討論還包含了這種能力是否能夠提供空間之外的推理能力?來(lái)自馬普所的教授進(jìn)行了很好的開拓性發(fā)言,它認(rèn)為空間的grid cell 可以作為我們的其它推理能力的一種基礎(chǔ)形式。

蝙蝠的三維grid cell

6對(duì)不確定性的神經(jīng)編碼(Maneesh Sahani, Gatesby Unit UCL)

神經(jīng)系統(tǒng)如何通過(guò)大量的神經(jīng)元編碼周邊信號(hào)的不確定性是一個(gè)很重要的課題,一個(gè)有意思的主題是集群編碼(population coding)。這方面的研究和機(jī)器學(xué)習(xí)里variational auto-encoder (VAE)密切相關(guān)。 因?yàn)槟阋獩Q策, 不僅要依靠確定性的信息, 還要靠不確定的信息, 比如distribution。 神經(jīng)網(wǎng)絡(luò)被認(rèn)為具有這種編碼不確定性的能力。 同時(shí)這也是機(jī)器學(xué)習(xí)的核心主題, 貝葉斯學(xué)習(xí)基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)-深度貝葉斯學(xué)習(xí)正在占據(jù)越來(lái)越大的研究空間。

7貝葉斯學(xué)習(xí)(Weiji Ma, New york University)

貝葉斯學(xué)習(xí)和上面的不確定性密切相關(guān)。 貝葉斯相關(guān)的模型可以迅速的建立同時(shí)包含數(shù)據(jù)和假設(shè)的模型。貝葉斯概率是非?;A(chǔ)的統(tǒng)計(jì)知識(shí), 有的人只把它當(dāng)成統(tǒng)計(jì), 而它在神經(jīng)科學(xué)的巨大潛力在于, 它可以非常好的解釋行為, 以及大量之前模棱兩可的現(xiàn)象。 把實(shí)驗(yàn)數(shù)據(jù)和理論做一個(gè)極好的結(jié)合。 因?yàn)橥ㄟ^(guò)貝葉斯方法, 你可以把現(xiàn)有的實(shí)驗(yàn)數(shù)據(jù)迅速的通過(guò)似然性轉(zhuǎn)化為一個(gè)預(yù)測(cè)性模型,驗(yàn)證你的假設(shè)。

貝葉斯模型有別其它更基礎(chǔ)的模型,可以直接在行為上建模。你只要有先驗(yàn), 有似然性, 就可以建立一個(gè)貝葉斯模型。比如你有兩個(gè)截然不同的假設(shè)解釋一種心理現(xiàn)象, 貝葉斯方法讓你直接把先驗(yàn)和似然性(可以通過(guò)數(shù)據(jù)檢測(cè)或者直接推理得到)組合在一起解決一個(gè)問(wèn)題。同時(shí), 貝葉斯方法和自編碼器有很多靈活的結(jié)合, 不少新的工作圍繞如何在高斯假設(shè)之外實(shí)現(xiàn)變分自編碼器。

8 強(qiáng)化學(xué)習(xí)

強(qiáng)化學(xué)習(xí)相關(guān)的主題(如果包含多巴胺)幾乎占據(jù)了會(huì)議的半壁江山, 這些理論可以揭示動(dòng)物的行為和決策后面的大量算法基礎(chǔ)。 神經(jīng)科學(xué)方面, 大家圍繞stratum, amygdala, basal ganglia是如何配合實(shí)現(xiàn)這一算法展開了大量研究。 算法方面, 一些研究把小鼠海馬在空間導(dǎo)航學(xué)習(xí)中的預(yù)演“(preplay)和"回放“(replay)進(jìn)行了對(duì)比。 預(yù)演很像有模型學(xué)習(xí)中的計(jì)劃和模擬部分, 而回放可以對(duì)應(yīng)到TD lambda算法的值函數(shù)回傳, 這些算法, 都可以很好的對(duì)應(yīng)到現(xiàn)代的深度強(qiáng)化學(xué)習(xí)里, 但并不是每一個(gè)AI里的強(qiáng)化學(xué)習(xí)算法都有很好的神經(jīng)對(duì)應(yīng), 比如策略梯度。或許未來(lái)我們會(huì)發(fā)現(xiàn)兩者是一致, 或許不一致的部分正好可以指導(dǎo)我們改進(jìn)AI。

最后, 一個(gè)有趣的研究(David Reddish)把強(qiáng)化學(xué)習(xí)和神經(jīng)經(jīng)濟(jì)學(xué)(neural economics)聯(lián)系起來(lái), 讓小鼠在不同的選擇中權(quán)衡, 我們可以很輕易的控制每個(gè)獎(jiǎng)賞的屬性(如時(shí)間, 獲取難度), 看它怎么選擇。 有趣的是, 從小鼠中得到的現(xiàn)象居然可以直接和人類進(jìn)行對(duì)比。

這讓我想到, 目前的大量心理學(xué)理論,甚至經(jīng)濟(jì)學(xué)理論,可以通過(guò)強(qiáng)化學(xué)習(xí), 與計(jì)算神經(jīng)科學(xué)和AI聯(lián)系起來(lái)。

9, data inference & latent dynamics

模型分成兩種, 一種叫做機(jī)理模型, 一種叫做數(shù)據(jù)模型。 所謂機(jī)理模型的核心是用第一型原理推出現(xiàn)象, 理解現(xiàn)象,比如神經(jīng)細(xì)胞放電的Hodykin-Hukly模型,平衡神經(jīng)網(wǎng)絡(luò)模型, 這些往往是傳統(tǒng)的計(jì)算神經(jīng)科學(xué)模型。 而數(shù)據(jù)現(xiàn)象模型, 是力圖用最少的參數(shù)解決復(fù)雜的現(xiàn)象, 似乎理解了現(xiàn)象,然而實(shí)際只是擬合而已,但是這樣的模型有時(shí)候具有泛化能力, 它就是好的預(yù)測(cè)模型,幾乎所有的機(jī)器學(xué)習(xí)模型都可以進(jìn)入這一類。

然而對(duì)于想理解大腦的人第二類模型是不靠譜的, 因?yàn)槟阌植皇亲龉善?, 你是想理解現(xiàn)象。而你確實(shí)希望讓第一種模型具有第二個(gè)的能力, 因?yàn)槿绻粋€(gè)機(jī)理模型可以預(yù)測(cè)現(xiàn)象或數(shù)據(jù), 你就更加確定它是合理的,甚至可以給出更靠譜的預(yù)測(cè)。 而現(xiàn)在,有一些方法可以把兩個(gè)模型合成成一種。其中的一大類方法基于貝葉斯推理, 因?yàn)樨惾~斯可以把一個(gè)”生成模型“通過(guò)貝葉斯公式,和觀測(cè)數(shù)據(jù)結(jié)合起來(lái), 得到一個(gè)模型參數(shù)的后驗(yàn)概率, 事實(shí)上相當(dāng)于你用數(shù)據(jù)而不是其它的擬合了你的機(jī)理模型。 然后我們可以把這個(gè)機(jī)理模型帶去預(yù)測(cè)新的現(xiàn)象 ,驗(yàn)證它靠不靠譜。

而貝葉斯方法經(jīng)常面臨的問(wèn)題是先驗(yàn)不好給出, 似然性不好求解。 一個(gè)更加fancy的方法是直接上機(jī)器學(xué)習(xí)里的神經(jīng)網(wǎng)絡(luò)來(lái)做參數(shù)估計(jì)。 首先我們用我們”不靠譜“的機(jī)理模型通過(guò)模擬, 得到大量的結(jié)果。 每個(gè)模型參數(shù),都得到一大類模擬結(jié)果。 這些模擬結(jié)果和參數(shù), 就稱為了神經(jīng)網(wǎng)絡(luò)的輸入和labels, 不過(guò)可能和你想的反過(guò)來(lái), 模擬的結(jié)果是輸入, 而參數(shù)是輸出, 這個(gè)神經(jīng)網(wǎng)絡(luò)所做的正是貝葉斯里的推測(cè)后驗(yàn)概率,只不過(guò)先驗(yàn)和似然性被包含在了模型里。由此訓(xùn)練好的模型, 我要輸入給它最終測(cè)量到的真實(shí)數(shù)據(jù), 它就會(huì)得到一組最后我想要的模型參數(shù)了。你也可以理解為它很像一個(gè)GAN的結(jié)構(gòu),機(jī)理模型在這里扮演了生成器的角色, 而神經(jīng)網(wǎng)絡(luò)是一個(gè)判別器。 最終生成器生成的數(shù)據(jù)要和真實(shí)數(shù)據(jù)完全一致, 一個(gè)擬合就完成了。 由此你就得到了最具有預(yù)測(cè)力的機(jī)理模型。

另一些討論圍繞RNN,本次會(huì)議提到了一個(gè)GOLD模型 (Daniel O'shea Stanford)。用RNN可以學(xué)習(xí)執(zhí)行一個(gè)任務(wù),比如決策,但是以往我們不知道RNN的神經(jīng)元活動(dòng)和真實(shí)的關(guān)系。 現(xiàn)在, 執(zhí)行任務(wù)的同時(shí)我們用類似剛剛的方法讓它擬合真實(shí)的實(shí)驗(yàn)數(shù)據(jù)(神經(jīng)元活動(dòng)), 由此我們認(rèn)為,得到的RNN就是我們腦網(wǎng)絡(luò)的縮影,可以分析出大腦信息流動(dòng)的基本原理。這類工作應(yīng)該對(duì)構(gòu)建大規(guī)模腦網(wǎng)絡(luò)非常有幫助。

Gold 模型實(shí)際用到的結(jié)構(gòu)類似一個(gè)自編碼器, 一個(gè)編碼RNN把和任務(wù)有關(guān)的信息, 初始條件都?jí)嚎s成神經(jīng)編碼, 而另一個(gè)解碼RNN, 則在所有這些信息基礎(chǔ)上做出最后的決策,并擬合真實(shí)數(shù)據(jù)。這一類數(shù)據(jù)反推得來(lái)的模型, 可以幫助我們尋找數(shù)據(jù)背后的神經(jīng)活動(dòng)本質(zhì),這一類認(rèn)為又稱為Inference of latent dynamics.

GOLD模型

10, 尋找真實(shí)神經(jīng)網(wǎng)絡(luò)模型的神經(jīng)連接

一些好的計(jì)算模型, 可以幫助我們找到兩個(gè)真實(shí)腦網(wǎng)絡(luò)模塊之間的連接, 讓我們知道它們是怎么被連在一起的。 這也是計(jì)算和實(shí)驗(yàn)非常緊密在聯(lián)系在一起的一塊。 比如這次的會(huì)議一個(gè)talk講了初級(jí)視皮層V1區(qū)和V2區(qū)之間的功能連接可以如何通過(guò)數(shù)據(jù)推理出來(lái)。

總結(jié):

這次會(huì)議展示了計(jì)算神經(jīng)科學(xué)的巨大魅力和潛力,以及研究的挑戰(zhàn)。我們看到,火爆發(fā)展的機(jī)器學(xué)習(xí)的思想和方法, 已經(jīng)滲入了計(jì)算神經(jīng)科學(xué)的所有角度, 而對(duì)計(jì)算神經(jīng)科學(xué)的理解, 也在幫助我們制定發(fā)展通用人工智能的潛在方法。 當(dāng)然, 計(jì)算神經(jīng)科學(xué)的作用遠(yuǎn)不止這些, 它和所有的心理學(xué),認(rèn)知科學(xué), 生物神經(jīng)科學(xué)的關(guān)系猶如理論物理和物理的關(guān)系一樣緊密。 我經(jīng)常驚嘆某個(gè)計(jì)算理論可以如何讓我們聯(lián)想到一些心理現(xiàn)象, 這個(gè)學(xué)科的發(fā)展與神經(jīng)醫(yī)學(xué)的聯(lián)系也是不言而喻的。

然而進(jìn)入這個(gè)學(xué)科的難度還是很大的, 真正要在這個(gè)領(lǐng)域做好研究, 需要精通數(shù)學(xué)里的高等代數(shù)和微積分, 機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的所有理論, 物理里的非線性動(dòng)力學(xué)和一部分統(tǒng)計(jì)物理知識(shí), 要求不可謂不高。

最重要的,還要有極好的思辨能力。 因?yàn)檫@個(gè)學(xué)科不同于機(jī)器學(xué)習(xí)的是, 你不是光得到一個(gè)benchmark分?jǐn)?shù)很高的模型預(yù)測(cè)性能就可以了, 而是要真正理解一個(gè)機(jī)理的, 本質(zhì)性的東西。 你的模型永遠(yuǎn)來(lái)源于真實(shí), 又遠(yuǎn)遠(yuǎn)抽象于真實(shí),如何知道你的東西不是一個(gè)toy model, 而是包含了這種本質(zhì)的東西? 這種思辨力可能才是這個(gè)學(xué)科最有門檻的東西, 也是最有魅力之處吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:2019計(jì)算與系統(tǒng)神經(jīng)科學(xué)大會(huì)Cosyne 前沿研究匯總

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)分析

    感知機(jī)算法中包含了向傳播(FP)和反向傳播(BP)算法,但在介紹它們之前,我們先來(lái)了解一下深度神經(jīng)網(wǎng)絡(luò)的激活函數(shù)。
    發(fā)表于 02-08 19:03 ?2818次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>前</b><b class='flag-5'>饋</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>技術(shù)分析

    深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系

    理解,但是在其高冷的背后,卻有深遠(yuǎn)的應(yīng)用場(chǎng)景和未來(lái)。深度學(xué)習(xí)是實(shí)現(xiàn)機(jī)器學(xué)習(xí)的一種方式或一條路徑。其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)
    發(fā)表于 07-04 16:07

    【案例分享】基于BP算法的神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實(shí)由兩部分組成:
    發(fā)表于 07-21 04:00

    人工智能AI-深度學(xué)習(xí)C#&LabVIEW視覺控制演示效果

    本帖最后由 wcl86 于 2021-5-18 22:39 編輯 你將會(huì)學(xué)到的:1、解決如何機(jī)器能夠模仿人腦的思考方式,從而擺脫原來(lái)的固有數(shù)據(jù)庫(kù)比較的限制,機(jī)器能夠通過(guò)深度
    發(fā)表于 11-27 11:54

    基于遞歸神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)預(yù)測(cè)算法

    蛋白質(zhì)二級(jí)結(jié)構(gòu)預(yù)測(cè)是結(jié)構(gòu)生物學(xué)中的一個(gè)重要問(wèn)題。針對(duì)八類蛋白質(zhì)二級(jí)結(jié)構(gòu)預(yù)測(cè),提出了一種基于遞歸神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)深度
    發(fā)表于 12-03 09:41 ?9次下載

    深度學(xué)習(xí)是什么?了解深度學(xué)習(xí)難嗎?你快速了解深度學(xué)習(xí)的視頻講解

    深度學(xué)習(xí)是什么?了解深度學(xué)習(xí)難嗎?你快速了解深度學(xué)習(xí)
    發(fā)表于 08-23 14:36 ?16次下載

    快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載

    本文檔的詳細(xì)介紹的是快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載主要內(nèi)容包括了:機(jī)器學(xué)習(xí)概述,線性模型,
    發(fā)表于 02-11 08:00 ?33次下載
    快速了解神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的教程資料免費(fèi)下載

    什么是深度學(xué)習(xí)(Deep Learning)?深度學(xué)習(xí)工作原理詳解

    學(xué)習(xí)中的“深度”一詞表示用于識(shí)別數(shù)據(jù)模式的多層算法或神經(jīng)網(wǎng)絡(luò)。DL 高度靈活的架構(gòu)可以直接從原始數(shù)據(jù)中學(xué)習(xí),這類似于人腦的運(yùn)作方式,獲得更多
    的頭像 發(fā)表于 04-01 10:34 ?1w次閱讀

    bp神經(jīng)網(wǎng)絡(luò)還是反饋

    神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計(jì)算模型,由大量的神經(jīng)元(或稱為節(jié)點(diǎn))組成,這些神經(jīng)元之間通過(guò)權(quán)重連接。神經(jīng)網(wǎng)絡(luò)可以自動(dòng)學(xué)習(xí)輸入數(shù)據(jù)的特征,并根據(jù)這些特征進(jìn)行分類、回歸、模式識(shí)別等
    的頭像 發(fā)表于 07-03 10:16 ?438次閱讀

    神經(jīng)網(wǎng)絡(luò)工作原理和應(yīng)用

    神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN),作為最基本且應(yīng)用廣泛的一種人工神經(jīng)網(wǎng)絡(luò)模型,其工作原理和結(jié)構(gòu)
    的頭像 發(fā)表于 07-08 11:28 ?1216次閱讀

    神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理(Natural Language Processing, NLP)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在計(jì)算機(jī)能夠理解和處理人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的興起,
    的頭像 發(fā)表于 07-08 17:00 ?247次閱讀

    深度神經(jīng)網(wǎng)絡(luò)中的過(guò)程

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)中的過(guò)程是其核心操作之一,它描述了數(shù)據(jù)從輸入層通過(guò)隱藏層最終到達(dá)輸出層的過(guò)程,期間不涉及任何反向傳播或權(quán)重調(diào)整。這
    的頭像 發(fā)表于 07-08 17:29 ?269次閱讀

    全連接神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的比較

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)作為其核心組成部分,在各個(gè)領(lǐng)域展現(xiàn)出了強(qiáng)大的應(yīng)用潛力和價(jià)值。在眾多神經(jīng)網(wǎng)絡(luò)類型中,全連接神經(jīng)網(wǎng)絡(luò)(F
    的頭像 發(fā)表于 07-09 10:31 ?7845次閱讀

    神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)

    神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)是人工神經(jīng)網(wǎng)絡(luò)中最基本且廣泛應(yīng)用的一種結(jié)構(gòu),其結(jié)構(gòu)簡(jiǎn)單、易于理解,是
    的頭像 發(fā)表于 07-09 10:31 ?394次閱讀

    使用NumPy實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)

    要使用NumPy實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network),我們需要從基礎(chǔ)開始構(gòu)建,包括初始化網(wǎng)絡(luò)參數(shù)、定義激活函數(shù)及其導(dǎo)數(shù)、實(shí)現(xiàn)
    的頭像 發(fā)表于 07-11 16:30 ?1426次閱讀