0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

NAS:一篇完整講述AutoML整個流程的綜述

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:算法碼上來 ? 2020-12-26 09:40 ? 次閱讀

最近看了些NAS的論文,發(fā)現(xiàn)上面這篇綜述寫的很不錯,非常全面,詳細拜讀了一下。有很多細節(jié)不是很懂,也沒空去精讀原論文,但是能夠對大致的脈絡有個初步的了解。因此簡單寫一下這篇綜述講了些啥,第一次接觸NAS,可能有理解有誤,望指正批評。

介紹

首先這篇綜述是講AutoML的,不單單是NAS,但是因為NAS是AutoML中最最重要的一部分,所以主要篇章還是用來講NAS了。據(jù)作者所說,應該是第一篇完整講述AutoML整個流程的綜述。

首先,本文將AutoML劃分成了如下幾個流程:

054d86a8-4691-11eb-8b86-12bb97331649.png

先是數(shù)據(jù)準備,然后是特征工程,接著是模型生成,最后就是模型評估了。其中模型生成又可以分為搜索空間和優(yōu)化方法,搜索空間有傳統(tǒng)的ML模型或者DL模型,優(yōu)化方法又分為超參數(shù)優(yōu)化和結構優(yōu)化。NAS的話主要就涉及到DL模型的搜索空間定義、結構優(yōu)化和模型評估策略這三塊。

因為我主要關注NAS這塊,所以其他部分就只簡單介紹一下,不做過多解讀。

數(shù)據(jù)準備

05aabbc0-4691-11eb-8b86-12bb97331649.png

看上面這個圖應該很清楚了,數(shù)據(jù)準備主要分為數(shù)據(jù)收集、數(shù)據(jù)清洗和數(shù)據(jù)增強三個部分。

數(shù)據(jù)收集

有開源的就去下開源的,沒開源的就去互聯(lián)網(wǎng)上爬,要是什么都沒有呢,那就通過GAN之類的技術來生成偽數(shù)據(jù),有總比沒有好嘛。

數(shù)據(jù)清洗

就是清洗數(shù)據(jù)中的噪聲、臟數(shù)據(jù),這一過程可能需要一些知識去判斷什么是噪聲。還有一個研究主題就是如何清洗每天更新的源源不斷的新數(shù)據(jù)。

數(shù)據(jù)增強

05faed34-4691-11eb-8b86-12bb97331649.png

數(shù)據(jù)增強某種程度上也可以被視為數(shù)據(jù)收集的一種工具,因為效果都是一樣的,增加了新數(shù)據(jù)。但是它的目的有所不同,主要是為了防止模型過擬合。上圖針對不同數(shù)據(jù)有很多增強方法,這里就不介紹了。

特征工程

有句話叫:數(shù)據(jù)和特征決定了機器學習的上界,而模型和算法只是為了去近似這個上界。主要可以分成三塊,特征選擇、特征構建和特征提取。這里也不多介紹了,因為在DL里特征工程用得很少,DL模型可以自己從數(shù)據(jù)中學出特征,很少需要自己手動構造特征了。

模型生成

從這塊開始進入到了NAS的領域。之前說了,搜索空間分為ML和DL兩塊,本文只關注DL,而優(yōu)化方法又分為超參優(yōu)化和網(wǎng)絡架構優(yōu)化,本文也主要只關注網(wǎng)絡架構優(yōu)化,因為超參優(yōu)化是挑選出最優(yōu)網(wǎng)絡架構之后的事情了,不過也有工作將NAS用在超參優(yōu)化上的,這個就不在討論范圍內(nèi)了。

068252a6-4691-11eb-8b86-12bb97331649.png

074062d2-4691-11eb-8b86-12bb97331649.png

上面兩張圖是NAS的一般流程:

首先針對不同的任務定義一個搜索空間,這個搜索空間就決定了你搜出來的網(wǎng)絡架構可能長什么樣子,也決定了你搜出來的架構可能性有多少,當然是越大越好,但是帶來的后果就是搜索速度太慢。

然后在這個搜索空間里進行搜索,采樣出一個比較好的模型架構,這里方法就非常多了,最簡單的就是隨機搜索,隨機采樣一個網(wǎng)絡架構。

最后就是在訓練集上評估你采樣出的架構效果,反饋給架構優(yōu)化,讓它優(yōu)化,然后繼續(xù)采樣,循環(huán)下去。評估方法也有很多,最簡單的就是像正常訓練模型那樣完整訓練一遍,得到效果,但是這樣太慢了,因此需要其他方法來加速訓練或者估計效果。

搜索空間

神經(jīng)網(wǎng)絡可以看作是一個DAG,而如何定義這個DAG,其實你可以用生成圖的方式做加法生成它,也可以做減法,從大圖中抽取出子圖等等,有很多方法。

定義搜索空間需要人類知識,這一步目前還不夠Auto,定義的好,生成出來的架構才可能好。而有些工作發(fā)現(xiàn)只要你搜索空間定義的足夠好,隨機搜索都能達到和各種架構優(yōu)化方法相似的效果,那么NAS將變得毫無意義,所以這一塊還是挺玄學的。

整體結構搜索

就是按照DAG的拓撲序,依次生成出模型架構出來。一般來說,用一個RNN來生成,每生成一個node,都要預測出它的輸入是哪些node(殘差)、作用在它上面的op有哪些。

但是這種方法太慢了,搜索的復雜度是指數(shù)級別的,因此在最初的幾篇RL論文里,都用了幾百個GPU訓練了幾十天才搜出來,窮苦人家可搜不起。

cell搜索

這種方式也是借鑒了人類設計神經(jīng)網(wǎng)絡的經(jīng)驗,像ResNet系列都是將一個個cell層層堆疊得到的,因此如果只搜一個cell,然后將相同的cell堆疊起來豈不是大大減小了搜索空間。后面的很多工作都是基于cell來搜索的,比如NASNet。

在NASNet中,cell被分成了兩種,一種是normal cell,它的輸入輸出維度保持相同,另一種是reduction cell,它的結構和normal cell相似,但是輸出的寬度和高度減半,通道數(shù)加倍。

最后搜索出最優(yōu)cell之后,根據(jù)需要堆疊不同層數(shù)的cell就行了,這個層數(shù)也是人為定義的。但是這里就會存在一個訓練和評估不一致的問題,一般來說,在搜索的時候,為了減小顯存占用,會堆疊比較少的層數(shù)去評估。但是在得到最優(yōu)cell之后,用來retrain時會堆疊比較多的層數(shù),這里就不一定是最優(yōu)解了。也有工作做這方面的優(yōu)化,比如P-DARTS,在搜索階段逐漸增加堆疊的層數(shù)。

07af825c-4691-11eb-8b86-12bb97331649.png

分層搜索

當然搜索cell也是存在問題的,忽視了整體結構的優(yōu)化,而且每一層的cell相同也不一定最好啊。因此后來的工作又提出了分層搜索的方法。

比如Auto-deeplab在搜索cell的同時,還搜索了不同層的分辨率,下一層的分辨率可以是一半、不變或兩倍,這一步限制一是為了減小搜索空間,二是為了增加穩(wěn)定性,防止分辨率變化太大。

07fd7c64-4691-11eb-8b86-12bb97331649.png

再如HierNAS,按照層次結構來搜索網(wǎng)絡架構,第一層是一些原子操作,第二層用這些原子操作生成一些比較小的網(wǎng)絡,第三層用第二層的小網(wǎng)絡再搭建出一個更大的網(wǎng)絡,依次下去。

0b7060e6-4691-11eb-8b86-12bb97331649.png

再如progressive NAS,為了減小一個cell里面的搜索空間大小,從一個cell里面只有一個block開始搜索,每次挑出top-k個cell,在基礎上衍生出兩個block,依次下去。評估性能用的是代理模型直接預測,不需要真的訓練一遍。

再如MnasNet,它將整個網(wǎng)絡分為了若干個cell,每個cell串行了若干個block,每個cell的block數(shù)量可能不同,而單個cell里面的block結構是相同的,這樣就考慮到了整體的網(wǎng)絡搜索空間。和堆疊cell不同的是,每個block的結構比較簡單,不然的話整體上搜索復雜度還是太大了。當然這篇主要還是為了做移動端部署,因此做了多目標NAS,將延時也考慮到了目標函數(shù)中去。

0eab3d12-4691-11eb-8b86-12bb97331649.png

之前的方法還存在一個問題,就是基本都是在小數(shù)據(jù)集上做的搜索評估,最后將最優(yōu)結構運用到大數(shù)據(jù)集上,這就存在不一致性。因此例如ProxylessNAS就直接在大數(shù)據(jù)集上搜索評估,為了減小顯存消耗,采用BinaryConnect,每次只激活兩個結點之間的一條邊。

網(wǎng)絡態(tài)射

這類方法主要思想就是在已經(jīng)訓練好的成熟網(wǎng)絡基礎上增加寬度、深度等等,繼承父網(wǎng)絡的參數(shù),加速子網(wǎng)絡的訓練。

首先是Net2Net,擴展分為兩個方向,一種是寬度上的,一種是深度上的,不能同時進行。

0ede4572-4691-11eb-8b86-12bb97331649.png

因此后來就有了網(wǎng)絡態(tài)射,可以處理任意線性層和非線性層,并且深度和寬度上可以同時擴展。

架構優(yōu)化

定義好搜索空間后,就要采用架構優(yōu)化算法來搜索出最優(yōu)的架構了。

演化算法

0f1545e0-4691-11eb-8b86-12bb97331649.png

演化算法就是模仿的生物進化過程。首先要對網(wǎng)絡架構進行編碼,方便之后的操作??梢詫D結構編碼為二進制串,但是這樣固定長度不靈活。于是就有了Cartesian genetic programming、Neuro evolution of augmenting topologies、Cellular encoding等各種編碼方法,詳細就不介紹了。

一般演化算法分為四步:選擇、交叉、變異、替換。

選擇。就是從候選的網(wǎng)絡架構中挑選出適應度最高的,一種可以直接挑絕對值最高的,另一種可以挑相對值最高的,第三種比較有名的是錦標賽選擇算法,也就是放回抽樣,每次等概率隨機選k個,挑出最好的那一個,進入下一代,其余放回,重復上述操作。

交叉。交叉方式和編碼方式有很大關系,

變異。上面兩步做完后,有很多方式可以對個體進行變異,比如隨機翻轉某一位,隨機增加或者刪除兩層之間的連接等等。

替換。新的個體加入種群后,舊的個體要被刪除掉??梢詣h除最久之前的,也可以刪除效果最差的,也有工作一個都不刪除,只要你內(nèi)存和時間頂?shù)米 ?/p>

強化學習

0f47236c-4691-11eb-8b86-12bb97331649.png

強化學習主要思想就是用一個控制器(一般是RNN)來生成網(wǎng)絡架構,然后評估得到得分作為反饋更新控制器參數(shù)。有用策略梯度的,也有用Q-learning的,還有用PPO算法的等等。第一篇NAS論文就是用的RL,但是這一類方法普遍很費卡,一般人玩不起。

梯度下降

0f935c6e-4691-11eb-8b86-12bb97331649.png

前兩種都是在離散空間搜結構,梯度下降方法是將離散空間變?yōu)榱诉B續(xù)空間。第一個提出的是DARTS,在兩個結點之間定義了若干種操作,然后做softmax,最后在評估的時候取argmax。

這種方法也有不好,比如成倍增加了顯存,本來一條邊現(xiàn)在需要成倍的計算量,此外用了代理任務,在小數(shù)據(jù)集上訓的層數(shù)比較少,遷移到大數(shù)據(jù)集上層數(shù)又很多。也有解決方法,比如P-DARTS,隨著訓練進行逐漸加層數(shù),為了減小計算量,還逐漸減少了每條邊上的操作數(shù)。而GDAS每次只選概率最大的那個操作邊做前向,反向傳播用gumbel softmax。

兩套參數(shù)聯(lián)合優(yōu)化也是很困難的,DARTS用的是交替優(yōu)化,一次優(yōu)化結構參數(shù),一次優(yōu)化模型權重。

最后還有個問題,就是搜索后期會傾向于搜索殘差連接之類的操作,這不好。于是DARTS+發(fā)現(xiàn)一個cell里出現(xiàn)兩個或以上殘差連接后就直接停止。P-DARTS則是給殘差加了正則化,減小出現(xiàn)的次數(shù)。

代理模型

這一類方法(SMBO)使用一個代理模型來指導最優(yōu)模型的生成。傳統(tǒng)的方法有貝葉斯優(yōu)化(高斯過程、隨機森林、TPE等等),就不詳細介紹傳統(tǒng)方法了。

也有用神經(jīng)網(wǎng)絡當作代理模型的,比如PNAS、EPNAS、NAO都用一個LSTM或者MLP將離散的結構編碼成連續(xù)的表示,然后預測性能,接著找出性能最高的最優(yōu)表示,用解碼器還原出離散的結構。

網(wǎng)格和隨機搜索

這就是最原始最普通的優(yōu)化方法,比如直接在搜索空間隨機搜索結構,然后評估,最后取最優(yōu)的就行了。雖說隨機搜索聽起來不大行,但實際出來的效果,能和大多數(shù)NAS方法達到相似效果,還很簡單。

混合優(yōu)化方法

上面這么多方法混合在一起,可能效果會更好。演化算法是全局優(yōu)化的,魯棒性很強,但是隨機性有點大,不穩(wěn)定,計算消耗也大。強化學習也是的,訓練很不穩(wěn)定。梯度下降方法訓練快,但是需要提前定義好超網(wǎng)絡結構,限制了結構的多樣性。

演化算法可以結合強化學習、梯度下降、SMBO,梯度下降也可以結合SMBO等等,這里就不詳細介紹了,典型的例子有Evo-NAS、NAO等等。

超參優(yōu)化

這一步其實是脫離了NAS的,就和一般的超參優(yōu)化一樣,網(wǎng)絡搜索、隨機搜索、貝葉斯優(yōu)化、梯度優(yōu)化等等方法,這里不做過多介紹了。

模型評估

在模型生成之后,需要對模型進行評估,然后指導架構優(yōu)化模塊生成更好的架構。最一般的方法就是從頭開始訓練到收斂,但是這樣太慢了,一般都要生成個幾百萬以上的架構的,訓練時間太久了。

低保真度

可以在評估時降低數(shù)據(jù)集的分辨率,降低cell堆疊的層數(shù),使用小數(shù)據(jù)集等等,這樣可以快速得到架構的大致效果,但是最后得到的架構可能在目標數(shù)據(jù)集上不是全局最優(yōu)的。

權重共享

比如ENAS,可以在多次評估模型性能時,繼承之前相同node的參數(shù),可以加快收斂速度。網(wǎng)絡態(tài)射也是用到了權重共享。

代理模型

直接學習一個預測器,輸入是網(wǎng)絡架構,輸出是它的性能,當然這需要提前先訓練一些模型,得到(架構,性能)的若干數(shù)據(jù),然后才能學習出這個預測器,PNAS就是這么干的。當然預測器的學習數(shù)據(jù)肯定不會多,所以SemiNAS就用半監(jiān)督的方法,利用大量無標注的結構去預測出性能,加入到訓練集中繼續(xù)優(yōu)化預測器。

early stop

可以只訓練幾輪,然后根據(jù)前期的學習曲線預測出最終的性能。

一些討論

效果對比

0fe84d96-4691-11eb-8b86-12bb97331649.png

103c0a6c-4691-11eb-8b86-12bb97331649.png

可以看出,演化算法和強化學習搜索時間都非常長,除了個別幾個用了權重共享之類技巧的。梯度下降方法全部都挺快的,但是整體效果都不如其他幾類方法。

其他

從整體流程上來看,NAS方法還可以分為一階段和兩階段。兩階段是一般做法,第一個階段就是搜索評估階段,選出最好的架構,第二個階段就是retrain這個最優(yōu)架構,在驗證集上評估。而一階段就是只需要訓練一次超網(wǎng)絡,聯(lián)合優(yōu)化架構參數(shù)和模型權重,之后不需要再retrain了。比如比較有名的Once-for-all,采用了progressive shrinking算法來使得子網(wǎng)絡之間的性能相互不受到影響。

NAS還可以分為one-shot和non-one-shot,one-shot意思就是搜索空間重合的,可以重復利用之前的參數(shù),比如ENAS、網(wǎng)絡態(tài)射、ProxylessNAS等都是的。

大多數(shù)NAS都只是把最終的效果當作目標,其實在移動端部署上還要考慮延時、模型大小、計算量等目標,一般都是解帕累托最優(yōu),比如MnasNet考慮到了延時。

開放性問題

搜索空間的靈活性

現(xiàn)在的搜索空間基本都還是人為定義的,參考了很多人類設計神經(jīng)網(wǎng)絡的經(jīng)驗,比如原子操作定義成conv、pooling之類的,結構上cell堆疊等等,但是真正的auto應該是模型自動設計網(wǎng)絡架構和原子操作,比如AutoML-Zero就用最基本的原子操作(sin、cos、mean、std等)設計出了兩層的神經(jīng)網(wǎng)絡。這一塊應該是今后的一大方向,例如目前工作主要在CV上,而對于NLP的Transformer模型,搜索空間如何定義的很好?目前工作還寥寥無幾,看了幾篇也都是堆疊conv,分支結構之類的。

探索更多的領域

如上所說,目前大多數(shù)工作都是在CV上,搜的是conv結構,而像NLP、語音等領域探索甚少,像多目標領域也只有很少的工作(韓松老師組工作很多),即使是在CV,任務也大多數(shù)局限在CIFAR-10和ImageNet上。

可解釋性

搜出來的網(wǎng)絡為什么好?現(xiàn)在人類設計的網(wǎng)絡大多數(shù)都能強行解釋一下好處,即使它仍然是個黑盒。但是NAS搜出來的基本看不出設計的邏輯。

可復現(xiàn)

之前也說了,例如演化算法和強化學習這一類方法訓練很不穩(wěn)定,很難復現(xiàn)出結果。很多論文也都只是公開了最好的模型,都不放出源碼的(當然我并沒有質(zhì)疑他們),超參數(shù)之類的也有些沒有公布,這導致我們平民玩家沒法復現(xiàn),沒法用啊。而且大家評測的環(huán)境都不相同,眾說紛紜,沒法公平比較,因此也有一些工作提出了NAS統(tǒng)一的數(shù)據(jù)集來評測。

魯棒性

如果目標領域數(shù)據(jù)添加了噪聲,可能會對搜出來的模型產(chǎn)生很大影響。所以如何搜出更加魯棒、能適應不同領域或者有噪聲數(shù)據(jù)的結構可能是未來的一個研究方向。

聯(lián)合超參優(yōu)化和架構優(yōu)化

目前大多數(shù)NAS方法都是先搜出最優(yōu)架構,再調(diào)整超參在目標領域上retrain,如何同時學好這兩塊也是一個方向。

完全的AutoML的pipeline

做到從數(shù)據(jù)收集開始一直到最后的模型生成訓練全部流程化,不需要人為參與,那樣才是真正的智能。目前的話有一些比較好的開源工具了,AutoKeras、NNI等等。

終身學習

當新的數(shù)據(jù)源源不斷進來時,當只有少量有標簽數(shù)據(jù)或者有大量無標簽數(shù)據(jù)時,如何做NAS,有幾個不錯的工作,比如UnNAS是做無監(jiān)督NAS的,MetaNAS是結合meta-learning的。

經(jīng)典論文簡析

(NAS)[ICLR 17] Neural Architecture Search with Reinforcement Learning

動機
用強化學習來采樣網(wǎng)絡,生成出最優(yōu)網(wǎng)絡結構,避免人工設計。

方法
用RNN來預測CNN或者RNN的結構,采樣結構,下游任務效果作為強化學習得分,策略梯度更新參數(shù)。

CNN預定義好層數(shù),LSTM每5層預測CNN一層的5個參數(shù)。

RNN預定義好cell的計算拓撲圖,LSTM預測每個node的計算邏輯。

實驗

11fc8200-4691-11eb-8b86-12bb97331649.png

接近人類設計網(wǎng)絡的最好水平。速度超慢,800 K40,28天,只適用于小數(shù)據(jù)集例如CIFAR-10。

評價
強化學習應用到NAS的第一篇論文。

(NASNet)[CVPR 18] Learning Transferable Architectures for Scalable Image Recognition

動機
RL直接搜太慢了,只能用在小數(shù)據(jù)集,ImageNet之類的大數(shù)據(jù)集沒法用。

方法
提出了NASNet,用堆疊相同cell的方式減小搜索空間。在CIFAR-10上面學習cell結構,通過增加堆疊層數(shù)的方式遷移到ImageNet上去。用PPO替代策略梯度。

12a5458e-4691-11eb-8b86-12bb97331649.png

選擇之前的兩個node,分別預測對應op,然后預測合并op。

140c7492-4691-11eb-8b86-12bb97331649.png

實驗

1452eed6-4691-11eb-8b86-12bb97331649.png

147f4b66-4691-11eb-8b86-12bb97331649.png

效果和參數(shù)量都好于前作,達到了SOTA水平。速度加快很多,500 P100,4天,相比于前作加速7倍。

評價
NASNet,通過cell堆疊加快了結構搜索的速度,同時效果達到了SOTA,并且容易遷移到其他任務上去。

(ENAS)[ICML 18] Efficient Neural Architecture Search via Parameter Sharing

動機
之前的方法采樣出一個結構,在dev上得到acc,然后就會拋棄權重,重新采樣訓練,非常耗時。

方法
定義一個超圖,每次搜出的子圖共享權重。

對于RNN cell,LSTM的每兩個step預測之前某個node作為輸入,再預測op,最后出度0的node拼接作為輸出。

14f41b62-4691-11eb-8b86-12bb97331649.png

對于CNN,一種策略是直接生成整個網(wǎng)絡,每個node先預測之前哪些作為輸入,然后預測op。

1532c4e8-4691-11eb-8b86-12bb97331649.png

另一種策略和NASNet類似,堆疊cell,搜索空間縮小到一個cell。

實驗

157f47b4-4691-11eb-8b86-12bb97331649.png

優(yōu)于NAS和NASNet,1 1080Ti,16小時,相比NAS加速1000倍。

評價
訓練速度很快,AutoKeras背后就采用了ENAS。

(DARTS)[ICLR 19] DARTS: Differentiable Architecture Search

動機
離散結構搜索太慢了,采樣+驗證+反饋的循環(huán)很耗時。

方法
連續(xù)域結構搜索代替離散域結構搜索,用微分來優(yōu)化結構。

兩套參數(shù):模型參數(shù)(訓練集優(yōu)化)、結構參數(shù)(驗證集優(yōu)化)。

交替優(yōu)化兩套參數(shù),softmax+relax學習最終結構。

15fbe026-4691-11eb-8b86-12bb97331649.png

實驗

164b561a-4691-11eb-8b86-12bb97331649.png

效果達到或接近了SOTA,速度上比ENAS慢,比其他的方法快。

評價
第一個用可微分方法做NAS的,第一個連續(xù)空間搜索代替離散空間搜索。

[ICLR 19] Rethinking the Value of Network Pruning

動機
現(xiàn)有的剪枝方法存在問題,很多操作不合理,沒有必要。

方法
傳統(tǒng)剪枝方法基于兩個假設:

過參數(shù)化很重要,訓練大模型再剪枝優(yōu)于直接訓練剪枝后的模型。

繼承大模型參數(shù),再finetune很重要,優(yōu)于隨機初始化剪枝后模型再重新訓練。

本文認為都不一定對:

對于預定義好的模型,直接訓練可以達到和訓練-剪枝-finetune相同甚至更好的效果。

大模型剪枝后,隨機初始化重新訓練,效果和繼承參數(shù)finetune差不多。

所以本文認為剪枝后的結構重要,而參數(shù)不是那么重要。

實驗

16e4d8a8-4691-11eb-8b86-12bb97331649.png

一系列實驗結果驗證了猜想,此外本文還否定了彩票假設,認為剪枝后隨機初始化即可,沒必要和原始初始化相同。

評價
仍然有一些局限性,比如數(shù)據(jù)分布均衡、模型比較大,估計在其他設置下不一定work。而且不如finetune速度快。

參考鏈接

不錯的綜述或討論

https://lilianweng.github.io/lil-log/2020/08/06/neural-architecture-search.html
https://jinzhuojun.blog.csdn.net/article/details/84698471
http://www.tensorinfinity.com/paper_136.html
https://zhuanlan.zhihu.com/p/73785074
https://www.zhihu.com/question/359162202
https://github.com/pzhren/Awesome-NAS
Neural Architecture Search: A Survey
A Comprehensive Survey of Neural Architecture Search: Challenges and Solutions
AutoML: A Survey of the State-of-the-Art
A Comprehensive Survey of Neural Architecture Search: Challenges and Solutions

一些經(jīng)典論文

Neural Architecture Search with Reinforcement Learning
Designing Neural Network Architectures using Reinforcement Learning
Efficient Neural Architecture Search via Parameter Sharing
Learning Transferable Architectures for Scalable Image Recognition
DARTS: Differentiable Architecture Search
Neural Architecture Optimization
FP-NAS: Fast Probabilistic Neural Architecture Search
SNAS: Stochastic Neural Architecture Search
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Once for All: Train One Network and Specialize it for Efficient Deployment
Rethinking the Value of Network Pruning
TextNAS: A Neural Architecture Search Space Tailored for Text Representation
The Evolved Transformer
HAT: Hardware-Aware Transformers for Efficient Natural Language Processing
Searching Better Architectures for Neural Machine Translation

一些經(jīng)典源碼或工具

https://github.com/quark0/darts
https://github.com/melodyguan/enas
https://github.com/mit-han-lab/once-for-all
https://github.com/mit-han-lab/hardware-aware-transformers
https://github.com/microsoft/nni
https://github.com/IntelLabs/distiller
https://autokeras.com/

參考資料

[1]

AutoML: A survey of the state-of-the-art: https://arxiv.org/abs/1908.00709

責任編輯:xj

原文標題:一文看懂AutoML

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)

    關注

    8

    文章

    6760

    瀏覽量

    88619
  • 算法
    +關注

    關注

    23

    文章

    4576

    瀏覽量

    92343
  • NAS
    NAS
    +關注

    關注

    11

    文章

    276

    瀏覽量

    112311

原文標題:一文看懂AutoML

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NAS工具軟件大盤點:瞧瞧哪個被你遺漏了

    很多人都聽說過NAS,也有很多人正在使用NAS。 NAS用戶通常需要安裝些軟件來擴展其功能,畢竟NAS的功能實在是太多了,光是部署與調(diào)試就
    的頭像 發(fā)表于 08-01 16:26 ?927次閱讀

    PCBA加工打樣流程詳解,看這就夠了

    PCBA打樣。接下來帶大家深入了解PCBA打樣的詳細流程,以幫助客戶更好地理解整個生產(chǎn)過程。 PCBA打樣流程解析 第步:客戶訂單 整個P
    的頭像 發(fā)表于 07-25 09:23 ?317次閱讀

    SensiML開源AutoML解決方案-Piccolo AI發(fā)布

    SensiML強大的Analytics Studio軟件開發(fā)工具的開源版本-Piccolo AI發(fā)布了!Piccolo AI遵循AGPL許可,面向個人開發(fā)者、研究人員和AI愛好者,旨在將AutoML
    的頭像 發(fā)表于 07-22 16:53 ?667次閱讀

    那些年我的NAS用過的常用套件?

    NAS遠程管理 指通過遠程訪問和控制技術,實現(xiàn)對NAS設備的遠程操作和管理。具體而言,用戶可以通過電腦、手機等設備,在異地實現(xiàn)對NAS設備的控制,如獲取NAS設備上的文件、圖片和音頻等
    的頭像 發(fā)表于 06-05 14:18 ?274次閱讀
    那些年我的<b class='flag-5'>NAS</b>用過的常用套件?

    除了容量大還能干啥?教你如何用NAS提升居家幸福感!

    提供大容量存儲空間,可以保存家中的大量圖片、視頻、文件等珍貴資料。 無需每次調(diào)用資料都打開電腦,通過移動設備或電腦的專用APP,用戶可以隨時隨地訪問和調(diào)用NAS中的資料,大大提高了數(shù)據(jù)調(diào)用的便利性。 NAS還支持自動備份功能,確保重要數(shù)據(jù)的安全和
    的頭像 發(fā)表于 06-04 11:23 ?343次閱讀

    NAS使用小妙招丨系統(tǒng)&amp;域名&amp;配件

    NAS(網(wǎng)絡附加存儲)使用主要涉及到系統(tǒng)安裝與設置、域名綁定、以及配件選擇與配置。以下將分別針對這三個方面進行詳細闡述: 、系統(tǒng)安裝與設置 安裝群暉NAS系統(tǒng): 將NAS設備連接到網(wǎng)
    的頭像 發(fā)表于 05-29 15:09 ?288次閱讀
    <b class='flag-5'>NAS</b>使用小妙招丨系統(tǒng)&amp;域名&amp;配件

    機實現(xiàn)All in one,NAS如何玩轉虛擬機!

    常言道,中年男人玩具有三寶 充電器、路由器、NAS 你問我NAS的魔力在哪里? 機實現(xiàn)All in one灑灑水啦 那NAS又如何玩轉虛擬機呢? 跟我來 0基礎也能輕松get!
    的頭像 發(fā)表于 05-28 14:44 ?526次閱讀
    <b class='flag-5'>一</b>機實現(xiàn)All in one,<b class='flag-5'>NAS</b>如何玩轉虛擬機!

    文掃盡Nas常用Docker軟件

    NAS(Network Attached Storage,網(wǎng)絡附加存儲)設備上的Docker軟件選擇取決于您的具體需求和用途。以下是NAS上常用的Docker軟件推薦
    的頭像 發(fā)表于 05-23 18:33 ?1678次閱讀

    NAS必備軟件清單:提升存儲效率與媒體管理

    NAS(Network Attached Storage)用戶通常需要安裝些軟件來擴展其功能,以下軟件支持各種系統(tǒng),無論是群暉、威聯(lián)通還是其他NAS設備,新手或者技術牛人都值得嘗試。
    的頭像 發(fā)表于 05-21 16:31 ?562次閱讀
    <b class='flag-5'>NAS</b>必備軟件清單:提升存儲效率與媒體管理

    教你招,鍵解鎖云盤與NAS自動同步!

    想象下 數(shù)字生活就像座繁忙的都市 云盤是你的空中閣樓 俯瞰著整個城市的美景 而NAS是堅實的地基 承載著所有珍貴的記憶 那如何讓數(shù)據(jù)在 城市的高空與地面之間自由穿梭呢? 別急!鐵威
    的頭像 發(fā)表于 05-15 16:58 ?284次閱讀
    教你<b class='flag-5'>一</b>招,<b class='flag-5'>一</b>鍵解鎖云盤與<b class='flag-5'>NAS</b>自動同步!

    構建系統(tǒng)思維:信號完整性,看這就夠了!

    信號完整性(Signal Integrity,SI)在電子工程領域中具有極其重要的意義,也是現(xiàn)代電子設計的核心考量因素之,尤其在高速PCB設計、集成電路設計、通信系統(tǒng)設計等領域,對保證系統(tǒng)性
    發(fā)表于 03-05 17:16

    NAS使用小貼士,讓NAS實現(xiàn)存儲的曠野

    結束2024年的第個假期,我們忙著做年終總結,對來年許下希冀。 2023毋庸置疑是近年來過得較為豐富多彩的年。 “看了好多場演唱會” “實現(xiàn)了場說走就走的旅行” “蹦場無拘無束
    的頭像 發(fā)表于 01-09 16:18 ?373次閱讀
    <b class='flag-5'>NAS</b>使用小貼士,讓<b class='flag-5'>NAS</b>實現(xiàn)存儲的曠野

    NAS設備及硬盤的選購與安裝使用

    面對海量的存儲需求難題,眾多企業(yè)與工作室往往會首選NAS存儲解決方案。但市面上NAS設備與硬盤產(chǎn)品繁多,如何組建適合自己的NAS系統(tǒng)也常常令人頭疼。
    的頭像 發(fā)表于 01-07 15:39 ?984次閱讀
    <b class='flag-5'>NAS</b>設備及硬盤的選購與安裝使用

    穿透局域網(wǎng)訪問威聯(lián)通nas

    寬帶沒有這個問題。 碰到問題總是要解決,筆者嘗試了另種方式訪問:通過 zerotier 組建VPN,在外網(wǎng)穿透局域網(wǎng),訪問威聯(lián)通nas,網(wǎng)速很可以,并且不依賴本地網(wǎng)絡運行商 解決實現(xiàn)方法: A.注冊
    發(fā)表于 11-16 18:34

    STM32的完整啟動流程分析

    STM32的完整啟動流程分析
    的頭像 發(fā)表于 10-25 16:00 ?1255次閱讀
    STM32的<b class='flag-5'>完整</b>啟動<b class='flag-5'>流程</b>分析