計(jì)算機(jī)視覺頂會(huì)CVPR 2018召開在即,從接收的論文看,這屆會(huì)議展現(xiàn)出了怎樣的趨勢(shì)?你不要不信,生成對(duì)抗網(wǎng)絡(luò)GAN,正在成為新的“深度學(xué)習(xí)”。
又到了一年一度CVPR的時(shí)節(jié)。
當(dāng)被接收的論文列表公布以后(點(diǎn)擊這里查看所有論文列表),愛統(tǒng)計(jì)趨勢(shì)的我們又有很多事情可以做了。
這一次,Google Research的研究科學(xué)家Jordi Pont-Tuset做了一個(gè)統(tǒng)計(jì),根據(jù)論文題目,看深度學(xué)習(xí)的發(fā)展趨勢(shì)。結(jié)果,他發(fā)現(xiàn)生成對(duì)抗網(wǎng)絡(luò)(GAN)強(qiáng)勢(shì)出擊,大有取代“深度學(xué)習(xí)”(Deep Learning)之勢(shì)。
下面這張圖展示了CVPR 2018的論文題目中,關(guān)鍵詞GAN、Deep,以及LSTM的對(duì)比:
可以看出,普通的“深度學(xué)習(xí)”已經(jīng)在走下坡路,而且趨勢(shì)明顯。Jordi Pont-Tuset認(rèn)為,這很可能是研究人員已經(jīng)見慣不慣了。
與此同時(shí),GAN則大幅抬頭,有8%的論文標(biāo)題中含有GAN(相比2017年增長了2倍多),已經(jīng)不能說是少數(shù),而是相當(dāng)有分量的一個(gè)方向了。
此外,LSTM也出現(xiàn)下滑,可能是越來越多人開始關(guān)注并使用Attention的方法。
“深度學(xué)習(xí)”趨于飽和,GAN強(qiáng)勢(shì)飛升
GAN的上升趨勢(shì)并不是從CVPR 2018才開始的。下面這張圖展示了從2013年到2017年CVPR期間,GAN(以及LSTM)在CVPR、ICCV和ECCV這三大計(jì)算機(jī)視覺頂會(huì)論文標(biāo)題中出現(xiàn)的頻次。統(tǒng)計(jì)者依然是Jordi Pont-Tuset。
盡管占比的絕對(duì)值不高(在2017年時(shí)為2.5%),但可以發(fā)現(xiàn)GAN從CVPR-16開始一飛沖天的趨勢(shì)。
這種趨勢(shì)在隨后舉行的ICCV 2017上更加明顯,GAN在ICCV-17上已經(jīng)超越了LSTM,并且占比達(dá)到了4%。
再來看“深度學(xué)習(xí)”,三大CV頂會(huì)的數(shù)據(jù)表明,歷經(jīng)2014年到2016年的火爆,從2017年開始,雖然還在增長(CVPR的稍微多一些),但都已趨于飽和。
GAN是新的“深度學(xué)習(xí)”?
需要指出,這里統(tǒng)計(jì)的僅僅是三大計(jì)算機(jī)視覺會(huì)議接收論文的標(biāo)題里的關(guān)鍵詞。
就像Jordi Pont-Tuset推測的那樣,普通的“深度學(xué)習(xí)”可能已經(jīng)為人熟知,如今在研究領(lǐng)域開始往更細(xì)的、更具體的方向發(fā)展,比如GAN。
生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Nets)在 Ian Goodfellow 等人2014年的論文《Generative Adversarial Nets》中提出,是非監(jiān)督學(xué)習(xí)的一種方法,通過讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互博弈的方式進(jìn)行學(xué)習(xí)。
GAN結(jié)構(gòu)示意。來源:Slinuxer
生成對(duì)抗網(wǎng)絡(luò)由一個(gè)生成網(wǎng)絡(luò)(Generator)與一個(gè)判別網(wǎng)絡(luò)(Discriminator)組成。生成網(wǎng)絡(luò)從潛在空間(latent space)中隨機(jī)采樣作為輸入,其輸出結(jié)果需要盡量模仿訓(xùn)練集中的真實(shí)樣本。判別網(wǎng)絡(luò)的輸入則為真實(shí)樣本或生成網(wǎng)絡(luò)的輸出,其目的是將生成網(wǎng)絡(luò)的輸出從真實(shí)樣本中盡可能分辨出來。而生成網(wǎng)絡(luò)則要盡可能地欺騙判別網(wǎng)絡(luò)。兩個(gè)網(wǎng)絡(luò)相互對(duì)抗、不斷調(diào)整參數(shù),最終目的是使判別網(wǎng)絡(luò)無法判斷生成網(wǎng)絡(luò)的輸出結(jié)果是否真實(shí)。生成對(duì)抗網(wǎng)絡(luò)常用于生成以假亂真的圖片。此外,該方法還被用于生成視頻、三維物體模型等。
現(xiàn)在,《Generative Adversarial Nets》這篇論文的引用數(shù)量已經(jīng)達(dá)到了3363次。
在一次Quora問答直播中,Yann LeCun表示,生成對(duì)抗性網(wǎng)絡(luò)是近十年來最有趣的想法,是人工智能最值得期待的算法之一。
去年在接受吳恩達(dá)的采訪時(shí),Ian Goodfellow曾經(jīng)說,GAN是生成模型的一種,實(shí)際上 GAN 能做的事情,很多其他生成模型也能做,如果GAN的訓(xùn)練能穩(wěn)定下來,甚至像深度學(xué)習(xí)那么可靠,那么GAN就能真正發(fā)展起來。如果不能,那么GAN 將會(huì)被其他方法所取代。他有大約 40% 的時(shí)間都用在穩(wěn)定 GAN 上面。
至少從這屆CVPR看,GAN被取代的情況還完全不存在。
現(xiàn)在,有很多針對(duì)GAN的研究,除了Ian Goodfellow所在的谷歌和他之前所在的OpenAI,F(xiàn)AIR/NYU也是一大重鎮(zhèn)。實(shí)際上,是FAIR/NYU最先把GAN帶進(jìn)了我們的視野,提出了LAPGAN,那是GAN第一次生成了逼真的高清圖像,也是第一次得到媒體曝光。
另外一個(gè)重要陣營是伯克利+英偉達(dá),他們專注超高清逼真圖像和視頻,無監(jiān)督翻譯,等等。伯克利的CycleGAN,利用對(duì)偶學(xué)習(xí)并結(jié)合GAN機(jī)制來優(yōu)化生成圖片的效果。英偉達(dá)則采取“漸進(jìn)式生成”技術(shù)訓(xùn)練GAN,讓計(jì)算機(jī)可以生成1024*1024大小的高清圖片,幾乎可以以假亂真。
除了圖像生成,GAN的應(yīng)用也已經(jīng)拓展到了NLP和Robot Learning。
Ian Goodfellow在去年一次問答中表示,GAN是使用強(qiáng)化學(xué)習(xí)來解決生成建模問題的一種方式?!癎AN的不同之處在于,獎(jiǎng)勵(lì)函數(shù)對(duì)行為是完全已知和可微分的,獎(jiǎng)勵(lì)是非固定的,以及獎(jiǎng)勵(lì)是Agent的策略的一個(gè)函數(shù)?!盙oodfellow說:“我認(rèn)為GAN基本上可以說就是強(qiáng)化學(xué)習(xí)?!?/p>
-
GaN
+關(guān)注
關(guān)注
19文章
1895瀏覽量
72325 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5434瀏覽量
120790 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
264瀏覽量
11182
原文標(biāo)題:GAN正在成為新的深度學(xué)習(xí)
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論