0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“深度學(xué)習(xí)”成為正常操作,網(wǎng)絡(luò)架構(gòu)的革命?

mK5P_AItists ? 來源:人工智能學(xué)家 ? 2019-11-24 07:33 ? 次閱讀

2013年才舉辦第一屆的ICLR(The International Conference on Learning Representations)發(fā)展迅猛,如今已成為是最重要的國際機(jī)器學(xué)習(xí)會(huì)議之一,甚至可以和ICML,NeurIPS和CVPR這些老牌著名會(huì)議相提并論。

2020年會(huì)議定于明年4月26日舉行,但是論文提交截止日期已經(jīng)過去了。這次會(huì)議共提交了2585份論文,比2019年多了約1000份論文。

今年提交論文:

https://openreview.net/group?id=ICLR.cc/2020/Conference

按照這個(gè)速度估計(jì),24年后,論文提交數(shù)量將達(dá)到10萬份。

我們分析了過去三年里ICLR所有提交的論文的摘要和關(guān)鍵詞,來看看哪些是新的風(fēng)口,而哪些議題正在消逝。今年,28%的論文使用或聲稱使用了最新算法,所以準(zhǔn)備接受大量的機(jī)器學(xué)習(xí)知識(shí)撲面而來吧!

深度學(xué)習(xí)”成為正常操作

計(jì)算機(jī)視覺或自然語言處理中使用深度學(xué)習(xí),如今就好像魚在水中生活一樣必要而且自然。深度學(xué)習(xí)徹底改變了機(jī)器學(xué)習(xí),它現(xiàn)在幾乎存在于機(jī)器學(xué)習(xí)的所有領(lǐng)域,甚至那些不太起眼的地方,比如在時(shí)間序列分析或需求預(yù)測(cè)也可以看到它的身影。

可以說深度學(xué)習(xí)已經(jīng)不再是一個(gè)前沿話題,而成了機(jī)器學(xué)習(xí)的正常操作。這也解釋了為什么在關(guān)鍵詞中提及深度學(xué)習(xí)的數(shù)量有所減少——從2018年的19%下降到了2020年的11%。

網(wǎng)絡(luò)架構(gòu)的革命?

神經(jīng)網(wǎng)絡(luò)(GNN,Graph Neural Networks)是這一年最熱門的話題之一。GNN是用于圖結(jié)構(gòu)數(shù)據(jù)的深度學(xué)習(xí)架構(gòu)。在醫(yī)學(xué)、社交網(wǎng)絡(luò)分類和動(dòng)態(tài)交互對(duì)象行為建模等應(yīng)用中,GNN展示了其巨大優(yōu)勢(shì)。關(guān)于GNN的論文數(shù)量的空前增長,從2018年的12篇發(fā)展到了2020年的111篇!

寂靜的GAN

GAN是近些年最流行的話題,但是這個(gè)被稱之為“近二十年來機(jī)器學(xué)習(xí)領(lǐng)域最酷的想法”似乎已經(jīng)被利用殆盡。生成對(duì)抗網(wǎng)絡(luò)(GAN,Generative Adversarial Networks)能夠模擬任何數(shù)據(jù)分布,從而創(chuàng)造出令人印象深刻的全新人工圖像,但是GAN的火熱程度在下降。盡管最近由于deepfake等事件使得GAN一度在媒體報(bào)道中十分流行,但是從數(shù)據(jù)看它確實(shí)不如當(dāng)年了。

讓機(jī)器來設(shè)計(jì)你的機(jī)器學(xué)習(xí)?

為你的神經(jīng)網(wǎng)絡(luò)找到一個(gè)合適的架構(gòu)實(shí)在是一件令人頭禿的事。但是,不要害怕:神經(jīng)體系結(jié)構(gòu)搜索(NAS,Neural Architecture Search)來幫你。NAS是一個(gè)可以自動(dòng)構(gòu)建網(wǎng)絡(luò)架構(gòu)的方法。它已經(jīng)被用于一些最新的算法中用于提升圖像分類、對(duì)象識(shí)別或模型分割的效果。關(guān)于NAS的論文從2018年的僅僅5篇增長到2020年的47篇。

強(qiáng)化學(xué)習(xí)表現(xiàn)穩(wěn)定

關(guān)于強(qiáng)化學(xué)習(xí)(RL,Reinforcement Learning)的論文占比基本保持不變。人們對(duì)這個(gè)話題的討論熱度不減——今年主要探討了強(qiáng)化學(xué)習(xí)在自動(dòng)駕駛汽車、AlphaStar在《星際爭霸》上的成功以及機(jī)器人技術(shù)的進(jìn)步上的應(yīng)用。強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)穩(wěn)定分支,而且原因足夠充分:人們相信RL會(huì)在未來大有可為。

關(guān)于強(qiáng)化學(xué)習(xí)的一篇干貨指南:

https://deepsense.ai/what-is-reinforcement-learning-the-complete-guide/

下一個(gè)風(fēng)口在哪里?

以上只是機(jī)器學(xué)習(xí)發(fā)展趨勢(shì)的一個(gè)縮影。明年的風(fēng)口會(huì)在哪里呢?這恐怕即使是最深度的神經(jīng)網(wǎng)絡(luò)也難以預(yù)測(cè)。但是人們對(duì)于機(jī)器學(xué)習(xí)的熱情仍然是上漲的,這也倒逼著研究人員提出更具創(chuàng)造性的觀點(diǎn)。有鑒于此,我們認(rèn)為未來會(huì)有更多創(chuàng)造性的想法涌現(xiàn)出來,即使機(jī)器學(xué)習(xí)的趨勢(shì)發(fā)生了180度的大轉(zhuǎn)彎,也不必感到驚訝。

更完整的近三年論文研究趨勢(shì)見下圖:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:從ICLR提交論文看機(jī)器學(xué)習(xí)的趨勢(shì)和風(fēng)口

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?146次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)熱
    發(fā)表于 09-27 20:53

    深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)解析與優(yōu)化策略

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),以其強(qiáng)大的特征學(xué)習(xí)能力和非線性建模能力,在多個(gè)領(lǐng)域取得了顯著成果。DNN的核心在于其多
    的頭像 發(fā)表于 07-09 11:00 ?1156次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)
    的頭像 發(fā)表于 07-09 10:50 ?301次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?664次閱讀

    深度學(xué)習(xí)常用的Python庫

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為
    的頭像 發(fā)表于 07-03 16:04 ?477次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個(gè)領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識(shí)別、語音識(shí)別
    的頭像 發(fā)表于 07-02 18:19 ?681次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著
    的頭像 發(fā)表于 07-01 14:16 ?492次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器
    的頭像 發(fā)表于 07-01 11:40 ?980次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪

    一個(gè)是它們由堆疊在一起的多個(gè) (> 2) 層組成 - 這 種方法也稱為深度學(xué)習(xí)。這種深層架構(gòu)雖然比典型 的\"淺層\"神經(jīng)網(wǎng)絡(luò)需要更多的計(jì)算能力,但事實(shí)證明,它們?cè)诟鞣N
    發(fā)表于 05-15 14:42

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    系統(tǒng)等其他行業(yè)也面臨著類似的挑戰(zhàn)。 FPGA 和深度學(xué)習(xí) FPGA 是可定制的硬件設(shè)備,可對(duì)其組件進(jìn)行調(diào)節(jié),因此可以針對(duì)特定類型的架構(gòu) (如 卷積神經(jīng)網(wǎng)絡(luò)) 進(jìn)行優(yōu)化。其可定制性特征
    發(fā)表于 03-21 15:19

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺、自然語言處理到自動(dòng)駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?544次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1776次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>與卷積神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的應(yīng)用

    目前主流的深度學(xué)習(xí)算法模型和應(yīng)用案例

    深度學(xué)習(xí)在科學(xué)計(jì)算中獲得了廣泛的普及,其算法被廣泛用于解決復(fù)雜問題的行業(yè)。所有深度學(xué)習(xí)算法都使用不同類型的神經(jīng)網(wǎng)絡(luò)來執(zhí)行特定任務(wù)。
    的頭像 發(fā)表于 01-03 10:28 ?1508次閱讀
    目前主流的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>算法模型和應(yīng)用案例

    深度學(xué)習(xí)在人工智能中的 8 種常見應(yīng)用

    深度學(xué)習(xí)簡介深度學(xué)習(xí)是人工智能(AI)的一個(gè)分支,它教神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和推理。近年來,它解決復(fù)雜問題
    的頭像 發(fā)表于 12-01 08:27 ?3119次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在人工智能中的 8 種常見應(yīng)用