0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用進(jìn)化算法發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)架構(gòu)

mK5P_AItists ? 來源:未知 ? 作者:李倩 ? 2018-03-20 16:01 ? 次閱讀

大腦的進(jìn)化進(jìn)程持續(xù)已久,從5億年前的蠕蟲大腦到現(xiàn)如今各種現(xiàn)代結(jié)構(gòu)。例如,人類的大腦可以完成各種各樣的活動(dòng),其中許多活動(dòng)都是毫不費(fèi)力的。例如,分辨一個(gè)視覺場(chǎng)景中是否包含動(dòng)物或建筑物對(duì)我們來說是微不足道的。為了執(zhí)行這些活動(dòng),人工神經(jīng)網(wǎng)絡(luò)需要專家經(jīng)過多年的艱難研究仔細(xì)設(shè)計(jì),并且通常需要處理一項(xiàng)特定任務(wù),例如查找照片中的內(nèi)容,稱為遺傳變異,或幫助診斷疾病。理想情況下,人們會(huì)希望有一個(gè)自動(dòng)化的方法來為任何給定的任務(wù)生成正確的架構(gòu)。

如果神經(jīng)網(wǎng)要完成這項(xiàng)任務(wù),則需要專家經(jīng)過多年研究以后進(jìn)行精心的設(shè)計(jì),才能解決一項(xiàng)專門的任務(wù),比如發(fā)現(xiàn)照片中存在的物體,發(fā)現(xiàn)基因變異,或者幫助診斷疾病。理想情況下,人們希望有一個(gè)自動(dòng)化的方法可以為任何給定的任務(wù)生成正確的網(wǎng)絡(luò)結(jié)構(gòu)。

生成這些網(wǎng)絡(luò)結(jié)構(gòu)的方法之一是通過使用演化算法。傳統(tǒng)的拓?fù)鋵W(xué)研究已經(jīng)為這個(gè)任務(wù)奠定了基礎(chǔ),使我們現(xiàn)如今能夠大規(guī)模應(yīng)用這些算法,許多科研團(tuán)隊(duì)正在研究這個(gè)課題,包括OpenAI、Uber實(shí)驗(yàn)室、Sentient驗(yàn)室和DeepMind。當(dāng)然,谷歌大腦也一直在思考自動(dòng)學(xué)習(xí)(AutoML)的工作。

除了基于學(xué)習(xí)的方法(例如強(qiáng)化學(xué)習(xí))之外,我們想知道是否可以使用我們的計(jì)算資源以前所未有的規(guī)模進(jìn)行圖像分類器的編程演化。我們能否以最少的專家參與達(dá)成解決方案,今天的人工進(jìn)化神經(jīng)網(wǎng)絡(luò)能有多好的表現(xiàn)呢?我們通過兩篇論文來解決這些問題。

ICML 2017上發(fā)表的“圖像分類器的大規(guī)模演化”中,我們用簡(jiǎn)單的構(gòu)建模塊和初始條件建立了一個(gè)演化過程。這個(gè)想法簡(jiǎn)單的說就是“從頭開始”,讓規(guī)模的演化做構(gòu)建工作。從非常簡(jiǎn)單的網(wǎng)絡(luò)開始,該過程發(fā)現(xiàn)分類器與當(dāng)時(shí)手動(dòng)設(shè)計(jì)的模型相當(dāng)。這是令人鼓舞的,因?yàn)樵S多應(yīng)用程序可能需要很少用戶參與。

例如,一些用戶可能需要更好的模型,但可能沒有時(shí)間成為機(jī)器學(xué)習(xí)專家。接下來要考慮的一個(gè)自然問題是手工設(shè)計(jì)和進(jìn)化的組合是否可以比單獨(dú)的任何一種方法做得更好。因此,在我們最近的論文“圖像分類器體系結(jié)構(gòu)搜索的正則化演化”(2018年)中,我們通過提供復(fù)雜的構(gòu)建模塊和良好的初始條件(下面討論)參與了該過程。而且,我們使用Google的新TPUv2芯片擴(kuò)大了計(jì)算范圍。對(duì)現(xiàn)代硬件、專家知識(shí)和進(jìn)化的結(jié)合共同產(chǎn)生了CIFAR-10和ImageNet兩種流行的圖像分類基準(zhǔn)的最新模型。

一個(gè)簡(jiǎn)單的方法

以下是我們第一篇論文的一個(gè)實(shí)驗(yàn)例子。

在下圖中,每個(gè)點(diǎn)都是在CIFAR-10數(shù)據(jù)集上訓(xùn)練的神經(jīng)網(wǎng)絡(luò),通常用于訓(xùn)練圖像分類器。每個(gè)點(diǎn)都是一個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)網(wǎng)絡(luò)在一個(gè)常用的圖像分類數(shù)據(jù)集(CIRAR-10)上進(jìn)行了訓(xùn)練。最初,人口由1000個(gè)相同的簡(jiǎn)單種子模型組成(沒有隱藏層)。從簡(jiǎn)單的種子模型開始非常重要,如果我們從初始條件包含專家知識(shí)的高質(zhì)量模型開始,那么最終獲得高質(zhì)量模型會(huì)更容易。一旦用簡(jiǎn)單的模型開始,該過程就會(huì)逐步推進(jìn)。在每一步中,隨機(jī)選擇一對(duì)神經(jīng)網(wǎng)絡(luò)。選擇更高精度的網(wǎng)絡(luò)作為父類,并通過復(fù)制和變異生成子節(jié)點(diǎn),然后將其添加到群體中,而另一個(gè)神經(jīng)網(wǎng)絡(luò)會(huì)消失。所有其他網(wǎng)絡(luò)在此步驟中保持不變。隨著許多這樣的步驟陸續(xù)得到應(yīng)用,整個(gè)網(wǎng)絡(luò)就會(huì)像人類的進(jìn)化一樣。

進(jìn)化實(shí)驗(yàn)進(jìn)程。每個(gè)點(diǎn)代表 population 中的一個(gè)元素。這四個(gè)列表是發(fā)現(xiàn)架構(gòu)的示例,這些結(jié)構(gòu)對(duì)應(yīng)最好的個(gè)體(最右邊,根據(jù)驗(yàn)證準(zhǔn)確性篩選)和其三個(gè) ancestor。

綜上所述,盡管我們通過簡(jiǎn)單的初始架構(gòu)和直觀的突變來最小化處理研究人員的參與,但大量專家知識(shí)進(jìn)入了構(gòu)建這些架構(gòu)的構(gòu)建塊之中。其中一些包括重要的發(fā)明,如卷積、ReLUs和批處理的歸一化層。我們正在發(fā)展一個(gè)由這些組件構(gòu)成的體系結(jié)構(gòu)。 “體系結(jié)構(gòu)”這個(gè)術(shù)語并不是偶然的:這與構(gòu)建高質(zhì)量的磚房相似。

結(jié)合進(jìn)化和手工設(shè)計(jì)

在我們的第一篇論文后,我們希望通過給算法提供更少的選擇來減少搜索空間,使其更易于管理。使用我們的架構(gòu)推導(dǎo),我們從搜索空間去掉了制作大規(guī)模錯(cuò)誤的所有可能的方法,例如蓋房子,我們把墻放在屋頂上的可能性去除了。與神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索類似,通過修復(fù)網(wǎng)絡(luò)的大規(guī)模結(jié)構(gòu),我們可以幫助算法解決問題。那么如何做到這一點(diǎn)? Zoph等人引入了用于架構(gòu)搜索的初始模塊。已經(jīng)證明非常強(qiáng)大。他們的想法是有一堆稱為細(xì)胞的重復(fù)單元。堆棧是固定的,但各個(gè)模塊的體系架構(gòu)是可以改變的。

Zophet al. 中引入的構(gòu)建模塊。圖左表示整個(gè)神經(jīng)網(wǎng)絡(luò)對(duì)外部結(jié)構(gòu),其通過重復(fù)的單元從下到上解析輸入數(shù)據(jù)。右圖單元格的內(nèi)部結(jié)構(gòu)。該實(shí)驗(yàn)的目的是發(fā)現(xiàn)能批生成高精度網(wǎng)絡(luò)的單元

在我們的第二篇論文“圖像分類器體系結(jié)構(gòu)搜索的正則化演化”(2018)中,我們介紹了將演化算法應(yīng)用于上述搜索空間的結(jié)果。突變通過隨機(jī)重新連接輸入(圖中右側(cè)箭頭)或隨機(jī)替換操作來修改單元格(例如,它們可以替換圖中的“最大3x3”像素塊)。這些突變相對(duì)簡(jiǎn)單,但最初的條件并不相同:現(xiàn)在的整體已經(jīng)可以用模型進(jìn)行初始化,這些模型必須符合由專家設(shè)計(jì)的細(xì)胞結(jié)構(gòu)。

盡管這些種子模型中的單元是隨機(jī)的,但我們不再從簡(jiǎn)單模型開始,這使得最終獲得高質(zhì)量模型變得更容易。如果演化算法的貢獻(xiàn)有意義,那么,最終的網(wǎng)絡(luò)應(yīng)該比我們已經(jīng)知道可以在這個(gè)搜索空間內(nèi)構(gòu)建的網(wǎng)絡(luò)好得多。我們的論文表明,演化確實(shí)可以找到與手工設(shè)計(jì)相匹配或超越手藝設(shè)計(jì)的最先進(jìn)模型。

控制變量比較法

即使突變/選擇進(jìn)化過程并不復(fù)雜,也許更直接的方法(如隨機(jī)搜索)也可以做到這一點(diǎn)。其他選擇雖然不簡(jiǎn)單,但也存在于文獻(xiàn)中(如強(qiáng)化學(xué)習(xí))。正因?yàn)槿绱?,我們的第二篇論文的主要目的是提供技術(shù)之間的控制變量比較。

使用演化法、強(qiáng)化學(xué)習(xí)和隨機(jī)搜索法進(jìn)行架構(gòu)搜索結(jié)果對(duì)比。這些實(shí)驗(yàn)在 CIFAR-10 數(shù)據(jù)集上完成,條件與 Zophet al. 相同,他們使用強(qiáng)化學(xué)習(xí)進(jìn)行空間搜索。

上圖比較了進(jìn)化、強(qiáng)化學(xué)習(xí)和隨機(jī)搜索。在左邊,每條曲線代表一個(gè)實(shí)驗(yàn)的進(jìn)展,表明在搜索的早期階段進(jìn)化比強(qiáng)化學(xué)習(xí)更快。這很重要,因?yàn)橛?jì)算能力較低,實(shí)驗(yàn)可能不得不提前停止。

此外,演變對(duì)數(shù)據(jù)集或搜索空間的變化具有魯棒性??偟膩碚f,這種對(duì)照比較的目標(biāo)是為研究界提供計(jì)算昂貴的實(shí)驗(yàn)結(jié)果。在這樣做的過程中,我們希望通過提供不同搜索算法之間關(guān)系的案例研究來促進(jìn)每個(gè)人的架構(gòu)搜索。例如,上圖顯示,使用更少的浮點(diǎn)運(yùn)算時(shí),通過進(jìn)化獲取的最終模型可以達(dá)到非常高的精度。

我們?cè)诘诙撐闹惺褂玫倪M(jìn)化算法的一個(gè)重要特征是正則化的形式:不是讓最壞的神經(jīng)網(wǎng)絡(luò)死掉,而是刪除最老的一個(gè),無論它們有多好。這改善了正在優(yōu)化的任務(wù)變化的魯棒性,并最終趨于產(chǎn)生更準(zhǔn)確的網(wǎng)絡(luò)。其中一個(gè)原因可能是因?yàn)槲覀儾辉试S權(quán)重繼承,所有的網(wǎng)絡(luò)都必須從頭開始訓(xùn)練。因此,這種正則化形式選擇在重新訓(xùn)練時(shí)仍然保持良好的網(wǎng)絡(luò)。換句話說,因?yàn)橐粋€(gè)模型可能會(huì)更準(zhǔn)確一些,訓(xùn)練過程中的噪聲意味著即使是相同的體系結(jié)構(gòu)也可能會(huì)得到不同的準(zhǔn)確度值。只有在幾代中保持準(zhǔn)確的體系結(jié)構(gòu)才能長(zhǎng)期存活,從而選擇重新訓(xùn)練良好的網(wǎng)絡(luò)。篇猜想的更多細(xì)節(jié)可以在論文中找到。

我們發(fā)展的最先進(jìn)的模型被命名為AmoebaNets,是我們AutoML努力的最新成果之一。所有這些實(shí)驗(yàn)通過使用幾百個(gè)的GPU/TPU進(jìn)行了大量的計(jì)算。就像一臺(tái)現(xiàn)代計(jì)算機(jī)可以勝過數(shù)千年前的機(jī)器一樣,我們希望將來這些實(shí)驗(yàn)?zāi)艹蔀榧矣?。這里我們旨在提供對(duì)未來的一愿。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:谷歌大腦AutoML最新進(jìn)展:用進(jìn)化算法發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)架構(gòu)

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

    網(wǎng)絡(luò)BP算法的程序設(shè)計(jì)  多層前向網(wǎng)絡(luò)BP算法源程序  第4章 Hopfield網(wǎng)絡(luò)模型  4.1 離散型Hopfield
    發(fā)表于 03-20 11:32

    遺傳算法 神經(jīng)網(wǎng)絡(luò) 解析

    關(guān)于遺傳算法神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 05-19 10:22

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    期望的輸出。BP神經(jīng)網(wǎng)絡(luò)算法推導(dǎo)(更新權(quán)重和偏倚):從上面推導(dǎo)可以發(fā)現(xiàn):對(duì)于任意從神經(jīng)元i(輸出神經(jīng)元/隱層
    發(fā)表于 07-21 04:00

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲(chǔ)能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò)中,多層前饋神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的信息處理能力,由于其采用BP算法,因此也
    發(fā)表于 08-08 06:11

    神經(jīng)網(wǎng)絡(luò)和反向傳播算法

    03_深度學(xué)習(xí)入門_神經(jīng)網(wǎng)絡(luò)和反向傳播算法
    發(fā)表于 09-12 07:08

    反饋神經(jīng)網(wǎng)絡(luò)算法是什么

    反饋神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 04-28 08:36

    基于差分進(jìn)化的BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法

    提出了一種基于改進(jìn)差分進(jìn)化算法和 BP神經(jīng)網(wǎng)絡(luò) 的計(jì)算機(jī)網(wǎng)絡(luò)流量預(yù)測(cè)方法。利用差分進(jìn)化算法的全局
    發(fā)表于 08-10 16:13 ?31次下載
    基于差分<b class='flag-5'>進(jìn)化</b>的BP<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>學(xué)習(xí)<b class='flag-5'>算法</b>

    神經(jīng)網(wǎng)絡(luò)進(jìn)化能否改變機(jī)器學(xué)習(xí)

    神經(jīng)進(jìn)化進(jìn)化算法和人工神經(jīng)網(wǎng)絡(luò)結(jié)合起來,能像類似于地球上大腦進(jìn)化的方式來訓(xùn)練系統(tǒng)。
    發(fā)表于 07-11 16:16 ?787次閱讀

    進(jìn)化算法為搜索策略實(shí)現(xiàn)神經(jīng)架構(gòu)搜索的方法

    自動(dòng)化深度學(xué)習(xí)是目前深度學(xué)習(xí)領(lǐng)域的研究熱點(diǎn),神經(jīng)架構(gòu)搜索算法是實(shí)現(xiàn)自動(dòng)化深度學(xué)習(xí)的主要方法之一,該類算法可以通過對(duì)搜索空間、搜索策略或優(yōu)化策略進(jìn)行不同定義來自動(dòng)設(shè)計(jì)
    發(fā)表于 03-22 14:37 ?15次下載
    以<b class='flag-5'>進(jìn)化</b><b class='flag-5'>算法</b>為搜索策略實(shí)現(xiàn)<b class='flag-5'>神經(jīng)</b><b class='flag-5'>架構(gòu)</b>搜索的方法

    基于進(jìn)化計(jì)算的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與實(shí)現(xiàn)

    基于進(jìn)化計(jì)算的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與實(shí)現(xiàn)說明。
    發(fā)表于 06-01 09:25 ?4次下載

    基于改進(jìn)郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡(luò)進(jìn)化

    基于改進(jìn)郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡(luò)進(jìn)化
    發(fā)表于 06-24 15:40 ?15次下載

    基于進(jìn)化卷積神經(jīng)網(wǎng)絡(luò)的屏蔽效能參數(shù)預(yù)測(cè)

    進(jìn)化神經(jīng)網(wǎng)絡(luò)進(jìn)化算法和深度學(xué)習(xí)兩者相結(jié)合的產(chǎn)物,在算法神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值在初始種群個(gè)體染色
    發(fā)表于 04-07 16:21 ?336次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵技術(shù) 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networ
    的頭像 發(fā)表于 08-21 16:49 ?1767次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法嗎? 卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法的一種,它通常被用于圖像、語音、文本等
    的頭像 發(fā)表于 08-21 16:49 ?787次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
    的頭像 發(fā)表于 07-01 14:16 ?486次閱讀