0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成對(duì)抗網(wǎng)絡(luò)GAN,正在成為新的“深度學(xué)習(xí)”

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-06-11 16:04 ? 次閱讀

計(jì)算機(jī)視覺頂會(huì)CVPR 2018召開在即,從接收的論文看,這屆會(huì)議展現(xiàn)出了怎樣的趨勢(shì)?你不要不信,生成對(duì)抗網(wǎng)絡(luò)GAN,正在成為新的“深度學(xué)習(xí)”。

又到了一年一度CVPR的時(shí)節(jié)。

當(dāng)被接收的論文列表公布以后(點(diǎn)擊這里查看所有論文列表),愛統(tǒng)計(jì)趨勢(shì)的我們又有很多事情可以做了。

這一次,Google Research的研究科學(xué)家Jordi Pont-Tuset做了一個(gè)統(tǒng)計(jì),根據(jù)論文題目,看深度學(xué)習(xí)的發(fā)展趨勢(shì)。結(jié)果,他發(fā)現(xiàn)生成對(duì)抗網(wǎng)絡(luò)(GAN)強(qiáng)勢(shì)出擊,大有取代“深度學(xué)習(xí)”(Deep Learning)之勢(shì)。

下面這張圖展示了CVPR 2018的論文題目中,關(guān)鍵詞GAN、Deep,以及LSTM的對(duì)比:

可以看出,普通的“深度學(xué)習(xí)”已經(jīng)在走下坡路,而且趨勢(shì)明顯。Jordi Pont-Tuset認(rèn)為,這很可能是研究人員已經(jīng)見慣不慣了。

與此同時(shí),GAN則大幅抬頭,有8%的論文標(biāo)題中含有GAN(相比2017年增長了2倍多),已經(jīng)不能說是少數(shù),而是相當(dāng)有分量的一個(gè)方向了。

此外,LSTM也出現(xiàn)下滑,可能是越來越多人開始關(guān)注并使用Attention的方法。

“深度學(xué)習(xí)”趨于飽和,GAN強(qiáng)勢(shì)飛升

GAN的上升趨勢(shì)并不是從CVPR 2018才開始的。下面這張圖展示了從2013年到2017年CVPR期間,GAN(以及LSTM)在CVPR、ICCV和ECCV這三大計(jì)算機(jī)視覺頂會(huì)論文標(biāo)題中出現(xiàn)的頻次。統(tǒng)計(jì)者依然是Jordi Pont-Tuset。

盡管占比的絕對(duì)值不高(在2017年時(shí)為2.5%),但可以發(fā)現(xiàn)GAN從CVPR-16開始一飛沖天的趨勢(shì)。

這種趨勢(shì)在隨后舉行的ICCV 2017上更加明顯,GAN在ICCV-17上已經(jīng)超越了LSTM,并且占比達(dá)到了4%。

再來看“深度學(xué)習(xí)”,三大CV頂會(huì)的數(shù)據(jù)表明,歷經(jīng)2014年到2016年的火爆,從2017年開始,雖然還在增長(CVPR的稍微多一些),但都已趨于飽和。

GAN是新的“深度學(xué)習(xí)”?

需要指出,這里統(tǒng)計(jì)的僅僅是三大計(jì)算機(jī)視覺會(huì)議接收論文的標(biāo)題里的關(guān)鍵詞。

就像Jordi Pont-Tuset推測的那樣,普通的“深度學(xué)習(xí)”可能已經(jīng)為人熟知,如今在研究領(lǐng)域開始往更細(xì)的、更具體的方向發(fā)展,比如GAN。

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Nets)在 Ian Goodfellow 等人2014年的論文《Generative Adversarial Nets》中提出,是非監(jiān)督學(xué)習(xí)的一種方法,通過讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互博弈的方式進(jìn)行學(xué)習(xí)。

GAN結(jié)構(gòu)示意。來源:Slinuxer

生成對(duì)抗網(wǎng)絡(luò)由一個(gè)生成網(wǎng)絡(luò)(Generator)與一個(gè)判別網(wǎng)絡(luò)(Discriminator)組成。生成網(wǎng)絡(luò)從潛在空間(latent space)中隨機(jī)采樣作為輸入,其輸出結(jié)果需要盡量模仿訓(xùn)練集中的真實(shí)樣本。判別網(wǎng)絡(luò)的輸入則為真實(shí)樣本或生成網(wǎng)絡(luò)的輸出,其目的是將生成網(wǎng)絡(luò)的輸出從真實(shí)樣本中盡可能分辨出來。而生成網(wǎng)絡(luò)則要盡可能地欺騙判別網(wǎng)絡(luò)。兩個(gè)網(wǎng)絡(luò)相互對(duì)抗、不斷調(diào)整參數(shù),最終目的是使判別網(wǎng)絡(luò)無法判斷生成網(wǎng)絡(luò)的輸出結(jié)果是否真實(shí)。生成對(duì)抗網(wǎng)絡(luò)常用于生成以假亂真的圖片。此外,該方法還被用于生成視頻、三維物體模型等。

現(xiàn)在,《Generative Adversarial Nets》這篇論文的引用數(shù)量已經(jīng)達(dá)到了3363次。

在一次Quora問答直播中,Yann LeCun表示,生成對(duì)抗性網(wǎng)絡(luò)是近十年來最有趣的想法,是人工智能最值得期待的算法之一。

去年在接受吳恩達(dá)的采訪時(shí),Ian Goodfellow曾經(jīng)說,GAN是生成模型的一種,實(shí)際上 GAN 能做的事情,很多其他生成模型也能做,如果GAN的訓(xùn)練能穩(wěn)定下來,甚至像深度學(xué)習(xí)那么可靠,那么GAN就能真正發(fā)展起來。如果不能,那么GAN 將會(huì)被其他方法所取代。他有大約 40% 的時(shí)間都用在穩(wěn)定 GAN 上面。

至少從這屆CVPR看,GAN被取代的情況還完全不存在。

現(xiàn)在,有很多針對(duì)GAN的研究,除了Ian Goodfellow所在的谷歌和他之前所在的OpenAI,F(xiàn)AIR/NYU也是一大重鎮(zhèn)。實(shí)際上,是FAIR/NYU最先把GAN帶進(jìn)了我們的視野,提出了LAPGAN,那是GAN第一次生成了逼真的高清圖像,也是第一次得到媒體曝光。

另外一個(gè)重要陣營是伯克利+英偉達(dá),他們專注超高清逼真圖像和視頻,無監(jiān)督翻譯,等等。伯克利的CycleGAN,利用對(duì)偶學(xué)習(xí)并結(jié)合GAN機(jī)制來優(yōu)化生成圖片的效果。英偉達(dá)則采取“漸進(jìn)式生成”技術(shù)訓(xùn)練GAN,讓計(jì)算機(jī)可以生成1024*1024大小的高清圖片,幾乎可以以假亂真。

除了圖像生成,GAN的應(yīng)用也已經(jīng)拓展到了NLP和Robot Learning。

Ian Goodfellow在去年一次問答中表示,GAN是使用強(qiáng)化學(xué)習(xí)來解決生成建模問題的一種方式?!癎AN的不同之處在于,獎(jiǎng)勵(lì)函數(shù)對(duì)行為是完全已知和可微分的,獎(jiǎng)勵(lì)是非固定的,以及獎(jiǎng)勵(lì)是Agent的策略的一個(gè)函數(shù)?!盙oodfellow說:“我認(rèn)為GAN基本上可以說就是強(qiáng)化學(xué)習(xí)?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1895

    瀏覽量

    72325
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5434

    瀏覽量

    120790
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    264

    瀏覽量

    11182

原文標(biāo)題:GAN正在成為新的深度學(xué)習(xí)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    圖像生成對(duì)抗生成網(wǎng)絡(luò)gan_GAN生成汽車圖像 精選資料推薦

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganHello there! This is my story of making a GAN that would generate images of cars
    發(fā)表于 08-31 06:48

    圖像生成對(duì)抗生成網(wǎng)絡(luò)

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganby Thalles Silva 由Thalles Silva暖身 (Warm up)Let’s say there’s a very cool party going
    發(fā)表于 09-15 09:29

    生成對(duì)抗網(wǎng)絡(luò)模型綜述

    ,開創(chuàng)性地提出了生成對(duì)抗網(wǎng)絡(luò)GAN)。生成對(duì)抗網(wǎng)絡(luò)包含一個(gè)生成模型和一個(gè)判別模型。其中,
    發(fā)表于 04-03 10:48 ?1次下載
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>模型綜述

    生成對(duì)抗網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域有什么應(yīng)用

    的調(diào)研以及結(jié)合最新成果的研究,突出了生成對(duì)抗網(wǎng)絡(luò)的無監(jiān)督學(xué)習(xí)算法特征。目前生成對(duì)抗網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)的研究在不斷優(yōu)化著基礎(chǔ)
    發(fā)表于 12-06 15:29 ?22次下載
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>在計(jì)算機(jī)視覺領(lǐng)域有什么應(yīng)用

    如何使用生成對(duì)抗網(wǎng)絡(luò)進(jìn)行信息隱藏方案資料說明

    針對(duì)信息隱藏中含密栽體會(huì)留有修改痕跡,從根本上難以抵抗基于統(tǒng)計(jì)的隱寫分析算法檢測的問題,提出一種基于生成對(duì)抗網(wǎng)絡(luò)GAN)的信息隱藏方案。該方案首先利用生成對(duì)抗
    發(fā)表于 12-12 16:57 ?6次下載
    如何使用<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>進(jìn)行信息隱藏方案資料說明

    如何使用深度殘差生成對(duì)抗網(wǎng)絡(luò)設(shè)計(jì)醫(yī)學(xué)影像超分辨率算法

    針對(duì)醫(yī)學(xué)影像超分辨率重建過程中細(xì)節(jié)丟失導(dǎo)致的模糊問題,提出了一種基于深度殘差生成對(duì)抗網(wǎng)絡(luò)GAN)的醫(yī)學(xué)影像超分辨率算法。首先,算法包括生成
    發(fā)表于 01-02 16:59 ?5次下載
    如何使用<b class='flag-5'>深度</b>殘差<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>設(shè)計(jì)醫(yī)學(xué)影像超分辨率算法

    生成對(duì)抗網(wǎng)絡(luò)與其他生成模型之間的權(quán)衡取舍是什么?

    根據(jù)一些指標(biāo)顯示,關(guān)于生成對(duì)抗網(wǎng)絡(luò)GAN)的研究在過去兩年間取得了本質(zhì)的進(jìn)步。
    的頭像 發(fā)表于 04-29 11:01 ?3772次閱讀

    基于自注意力機(jī)制的條件生成對(duì)抗網(wǎng)絡(luò)模型

    近年來,越來越多的生成對(duì)抗網(wǎng)絡(luò)出現(xiàn)在深度學(xué)習(xí)的各個(gè)領(lǐng)域中。條件生成對(duì)抗網(wǎng)絡(luò)( Condition
    發(fā)表于 04-20 14:26 ?11次下載
    基于自注意力機(jī)制的條件<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>模型

    基于生成對(duì)抗網(wǎng)絡(luò)深度偽造視頻綜述

    深度偽造的濫用,給囯家、社會(huì)和個(gè)人帶來了潛在威脅。首先,介紹了深度偽造的概念和當(dāng)前發(fā)展趨勢(shì),分析了基于生成對(duì)抗網(wǎng)絡(luò)深度偽造視頻的
    發(fā)表于 05-10 15:39 ?11次下載

    「自行科技」一文了解生成對(duì)抗網(wǎng)絡(luò)GAN

    生成對(duì)抗網(wǎng)絡(luò)(Generative adversarial network, GAN)是一種深度學(xué)習(xí)
    的頭像 發(fā)表于 09-16 09:25 ?3933次閱讀

    GAN生成對(duì)抗網(wǎng)絡(luò) Generative Adversarial Networks

    原文鏈接 1 原理 對(duì)于生成對(duì)抗網(wǎng)絡(luò)GAN,一個(gè)簡單的理解是可以將其看做博弈的過程,我們可以將生成模型和判別模型看作博弈的雙方,比如在犯罪分子造假幣和警察識(shí)別假幣的過程中:
    的頭像 發(fā)表于 01-12 09:45 ?801次閱讀

    生成對(duì)抗網(wǎng)絡(luò)GAN的七大開放性問題

    生成對(duì)抗網(wǎng)絡(luò)在過去一年仍是研究重點(diǎn),我們不僅看到可以生成高分辨率(1024×1024)圖像的模型,還可以看到那些以假亂真的生成圖像。此外,我們還很興奮能看到一些新的
    的頭像 發(fā)表于 03-17 11:18 ?612次閱讀
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>GAN</b>的七大開放性問題

    PyTorch教程20.2之深度卷積生成對(duì)抗網(wǎng)絡(luò)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程20.2之深度卷積生成對(duì)抗網(wǎng)絡(luò).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:21 ?2次下載
    PyTorch教程20.2之<b class='flag-5'>深度</b>卷積<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)GAN)全解析

    GANs真正的能力來源于它們遵循的對(duì)抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成的圖像所推動(dòng)著進(jìn)行訓(xùn)練,很難知
    發(fā)表于 03-29 14:42 ?4114次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>(<b class='flag-5'>GAN</b>)全解析

    生成對(duì)抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通
    的頭像 發(fā)表于 07-09 11:34 ?615次閱讀