0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2018年,機(jī)器學(xué)習(xí)和人工智能領(lǐng)域最重要的突破是什么?

DPVg_AI_era ? 來源:lq ? 2018-12-26 08:59 ? 次閱讀

2018年,人工智能發(fā)展到什么階段了?Quora鼎鼎有名的大V認(rèn)為,AI炒作和AI威脅論在今年都降溫,并且不會(huì)有AI寒冬,升溫的是各種開源框架,2019年的AI,你認(rèn)為會(huì)是怎樣?

2018年,機(jī)器學(xué)習(xí)和人工智能領(lǐng)域最重要的突破是什么?

(這里給你留出充分思考的時(shí)間。)

看看其他的觀點(diǎn)。

之前,KDnuggets邀請(qǐng)了11位來自工業(yè)、學(xué)術(shù)和技術(shù)一線人員,回顧2018年AI的進(jìn)展。其中,呼吁阻止AI學(xué)術(shù)頂會(huì)向商業(yè)化淪陷的CMU助理教授Zachary C. Lipton認(rèn)為,2018年 (深度學(xué)習(xí)) 最大的進(jìn)展就是沒有進(jìn)展。

最近,F(xiàn)orbes則采訪了120位AI行業(yè)的創(chuàng)始人和高管,在2018年AI技術(shù)和產(chǎn)業(yè)現(xiàn)狀的基礎(chǔ)上,對(duì)2019年進(jìn)行展望,提出了120個(gè)預(yù)測(cè)。(里面有讓你覺得英雄所見略同的看法嗎?)

與往年一樣,Quora鼎鼎有名的大V、機(jī)器學(xué)習(xí)研究者、前Quora工程負(fù)責(zé)人Xavier Amatriain,也寫下了他認(rèn)為2018年機(jī)器學(xué)習(xí)和人工智能領(lǐng)域最大的進(jìn)展:

AI炒作和AI威脅論都有所降溫;

越來越多的人開始關(guān)注公平性、可解釋性或因果關(guān)系等問題;

深度學(xué)習(xí)不會(huì)再遇到寒冬,并且在圖像分類以外(尤其是自然語言處理)領(lǐng)域投入實(shí)用并產(chǎn)生效益;

AI框架方面的競(jìng)爭(zhēng)正在升溫,要是你想做出點(diǎn)事情,最好發(fā)表幾個(gè)你自己的框架。

一起來看看。

深度學(xué)習(xí)寒冬不會(huì)到來,2018對(duì)AI的期望和恐懼都下降了

正如Xavier Amatriain說的那樣,深度學(xué)習(xí)的寒冬不會(huì)到來——這項(xiàng)技術(shù)已經(jīng)用到產(chǎn)業(yè)里并帶來了收益,現(xiàn)實(shí)讓人們收起了一部分對(duì)AI的期望和恐懼,業(yè)界開始思考數(shù)據(jù)的公平性、模型的可解釋性等更本質(zhì)的問題。

如果說2017年是人工智能炒作和威脅論的風(fēng)口浪尖,那么2018似乎是我們開始冷靜下來的一年。

雖然馬斯克等人確實(shí)還在繼續(xù)強(qiáng)調(diào)他們對(duì)人工智能的恐懼,但他們可能忙于處理其他事務(wù)而無暇顧及這個(gè)議題。

與此同時(shí),媒體和公眾看來也都意識(shí)到,雖然自動(dòng)駕駛汽車和類似的技術(shù)在推進(jìn),但不會(huì)很快到來。不過,仍然有聲音支持對(duì)AI本身進(jìn)行管制,Xavier Amatriain認(rèn)為這種觀點(diǎn)是錯(cuò)誤的,真正該管制的是AI所造成的結(jié)果。

深度學(xué)習(xí):可解釋性得到更多關(guān)注,NLP迎來ImageNet時(shí)刻

關(guān)于AI炒作和AI威脅論的降溫實(shí)際上前面已經(jīng)說過了,Xavier Amatriain表示他很高興看到今年的重點(diǎn)似乎已經(jīng)轉(zhuǎn)移到去解決更具體的問題上面。

例如,業(yè)內(nèi)圍繞公平性 (fairness)展開了大量的討論,不僅舉辦了多個(gè)相關(guān)主題的會(huì)議 (比如FATML、ACM FAT),甚至還出現(xiàn)了一些在線課程。

ACM FAT會(huì)議,2019年1月底在美國召開

關(guān)于可解釋性 (interpretability)、對(duì)算法或模型的理解 (explanation)和因果關(guān)系 (causality)。后者重新成為人們關(guān)注的焦點(diǎn),主要是因?yàn)镴udea Pearl出版了“The Book of Why”這本書。關(guān)于推薦系統(tǒng)的ACM Recsys會(huì)議,最佳論文獎(jiǎng)也頒給了一篇討論如何在嵌入中包含因果關(guān)系的論文 (Causal Embeddings for Recommendations)。

話雖如此,許多其他作者認(rèn)為,因果關(guān)系在某種程度上是對(duì)深度學(xué)習(xí)理論的干擾,我們應(yīng)該再次關(guān)注更具體的問題,比如 interpretability 或 explanation。說到 Explanation,這個(gè)領(lǐng)域的亮點(diǎn)之一可能是華盛頓大學(xué) Marco Tulio Ribeiro等人發(fā)表的 Anchor論文和代碼,這他們對(duì)自己提出的著名模型LIME的改進(jìn)。

雖然關(guān)于深度學(xué)習(xí)是最通用的AI范例這一點(diǎn),仍然存在許多疑問(提問者算我一個(gè));雖然Yann LeCun和Gary Marcus兩人已經(jīng)是第n次爭(zhēng)論這個(gè)問題,但很明顯,深度學(xué)習(xí)不僅僅停留于此。

在這一年里,深度學(xué)習(xí)方法在視覺以外的領(lǐng)域,包括語言、醫(yī)療、教育等領(lǐng)域取得了前所未有的成功。尤其是教育方面,國內(nèi)國外的自適應(yīng)學(xué)習(xí)(Adaptive Learning) 都愈發(fā)火熱,以中國的松鼠AI (乂學(xué)教育) 為代表的個(gè)性化自適應(yīng)教學(xué)平臺(tái),甚至請(qǐng)到了“機(jī)器學(xué)習(xí)教父”Tom Mitchell出任首席科學(xué)家。

事實(shí)上,在NLP領(lǐng)域,我們看到了今年最引人注目的進(jìn)展。如果讓我必須選擇今年最令人印象深刻的AI應(yīng)用程序,那么我的選擇都來自NLP領(lǐng)域(而且都來自谷歌)。第一個(gè)是谷歌的超級(jí)有用的Smart Compose智能撰寫郵件工具,第二個(gè)是Duplex對(duì)話系統(tǒng)。

使用語言模型的想法加速了NLP的進(jìn)步,這個(gè)想法在今年由Fast.ai的UMLFit推廣起來。接著,我們看到了其他(改進(jìn)的)方法,如艾倫研究所的ELMO,Open AI的transformers,以及最近谷歌發(fā)布的BERT,它在許多任務(wù)上擊敗了此前的SOTA結(jié)果。這些模型被描述為“NLP的ImageNet時(shí)刻”,因?yàn)樗鼈兲峁┝穗S時(shí)可用的預(yù)訓(xùn)練通用模型,也可以對(duì)特定任務(wù)進(jìn)行微調(diào)。

除了語言模型之外,還有許多其他有趣的改進(jìn),比如facebook的多語言嵌入。值得注意的是,我們還看到這些方法和其他方法是如何迅速地集成到更一般的NLP框架中,比如AllenNLP或Zalando的FLAIR。

生態(tài):AI框架戰(zhàn)升溫,要出成績(jī)你最好發(fā)表幾個(gè)自己的框架

說到框架,今年的“AI框架戰(zhàn)爭(zhēng)”可謂愈演愈烈。令人驚訝的是,隨著Pytorch 1.0的發(fā)布,Pytorch似乎正在趕上TensorFlow。

雖然在生產(chǎn)中使用Pytorch的情況仍然不夠理想,但是Pytorch在這方面的進(jìn)展似乎比TensorFlow在可用性、文檔和教育方面的進(jìn)展要快。有趣的是,選擇Pytorch作為實(shí)現(xiàn)Fast.ai library的框架很可能起了重要作用。

話雖如此,谷歌已經(jīng)意識(shí)到了這一切,并正在朝著正確的方向推進(jìn),例如將Keras納入框架。最后,我們都能從所有這些偉大的資源中獲益,所以請(qǐng)繼續(xù)迎接它們的到來吧!

pytorch 與 tensorflow 的搜索趨勢(shì)

在框架空間中,另一個(gè)進(jìn)展很快的是強(qiáng)化學(xué)習(xí)。

雖然我認(rèn)為RL的研究進(jìn)展并不像前幾年那樣令人印象深刻 (浮現(xiàn)在我腦海中的只有DeepMind最近的Impala工作),但令人驚訝的是,在一年時(shí)間里,我們看到所有主要AI玩家都發(fā)布了RL框架。

谷歌發(fā)布了用于研究的Dopamine框架,Deepmind發(fā)布了某種程度上與Dopamine競(jìng)爭(zhēng)的TRFL框架。Facebook不甘落后,發(fā)布了Horizon,而微軟發(fā)布了TextWorld,后者更專門用于訓(xùn)練基于文本的智能體。希望2019年所有這些開源的優(yōu)勢(shì)能夠幫助RL領(lǐng)域取得更多進(jìn)步。

最后,我很高興看到谷歌最近在TensorFlow之上發(fā)布了TFRank。 Ranking是一個(gè)非常重要的ML應(yīng)用。

數(shù)據(jù):用合成數(shù)據(jù)訓(xùn)練DL模型

深度學(xué)習(xí)似乎最終消除了對(duì)數(shù)據(jù)的智能需求,但事實(shí)遠(yuǎn)非如此。

圍繞著改進(jìn)數(shù)據(jù)的想法,該領(lǐng)域仍有一些非常有趣的進(jìn)展。例如,雖然數(shù)據(jù)增強(qiáng)已經(jīng)存在了一段時(shí)間,并且對(duì)于許多DL應(yīng)用程序來說是關(guān)鍵,但谷歌今年發(fā)布了AutoAugment,這是一種深度強(qiáng)化學(xué)習(xí)方法,可以自動(dòng)增強(qiáng)訓(xùn)練數(shù)據(jù)。

一個(gè)更極端的想法是用合成數(shù)據(jù)訓(xùn)練DL模型。這已經(jīng)在實(shí)踐中嘗試了一段時(shí)間,被許多人視為AI未來的關(guān)鍵。NVidia在Training Deep Networks with Synthetic Data這篇論文中提出了有趣的新穎想法。在“Learning from the experts”這篇論文中,我們還展示了如何使用專家系統(tǒng)來生成合成數(shù)據(jù),然后將合成數(shù)據(jù)與實(shí)際數(shù)據(jù)相結(jié)合,使用這些數(shù)據(jù)來訓(xùn)練DL系統(tǒng)。

最后,還有一個(gè)有趣的想法,即使用“弱監(jiān)督”來減少對(duì)大量手工標(biāo)記數(shù)據(jù)的需求。Snorkel是一個(gè)非常有趣的項(xiàng)目,旨在通過提供一個(gè)通用框架來促進(jìn)這種方法。

基礎(chǔ)理論:AI沒有太多基礎(chǔ)性突破?

我并沒有看到太多AI更基礎(chǔ)性的突破。我并不完全同意Hinton的觀點(diǎn),他說這種創(chuàng)新的缺乏是由于該領(lǐng)域“資深人士太少,年輕人太多”,盡管在科學(xué)上確實(shí)存在這樣的趨勢(shì),即突破性研究經(jīng)常是在更老的年紀(jì)完成的。

在我看來,目前缺乏突破的主要原因是,現(xiàn)有方法和變體仍然有許多有效的實(shí)際應(yīng)用,所以很難冒險(xiǎn)采用那些可能不太實(shí)際的方法。當(dāng)該領(lǐng)域的大部分研究由大公司贊助時(shí),這一點(diǎn)就更加重要了。

這方面,今年有一篇有趣的論文挑戰(zhàn)了某些假設(shè),題為“對(duì)用于序列建模的一般卷積和遞歸網(wǎng)絡(luò)的經(jīng)驗(yàn)評(píng)估”(An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling)。在高度經(jīng)驗(yàn)主義和使用已知方法的同時(shí),這篇論文打開了發(fā)現(xiàn)新方法的大門,因?yàn)樗C明了通常被認(rèn)為是最優(yōu)的方法實(shí)際上并不是最優(yōu)。

需要明確的是,我不同意Bored Yann LeCun的觀點(diǎn),他認(rèn)為卷積網(wǎng)絡(luò)是最終的“終極算法”(master algorithm),而且我認(rèn)為RNN也不是。

即使是序列建模,也有很大的研究空間!另一篇具有高度探索性的論文是最近的NeurIPS最佳論文“Neural Ordinary Differential Equations”,它挑戰(zhàn)了DL中的一些基本內(nèi)容,包括layers本身的概念。

2018年,機(jī)器學(xué)習(xí)和人工智能的發(fā)展卡在了數(shù)據(jù)集上面

在 Xavier Amatriain 的觀點(diǎn)之后,新智元也補(bǔ)充一點(diǎn):

2018年,機(jī)器學(xué)習(xí)和人工智能的進(jìn)展卡在了數(shù)據(jù)集上面。

為什么這么說?

昨天,創(chuàng)業(yè)公司Graphext在Reddit上發(fā)帖,公布了他們對(duì)2018年Reddit網(wǎng)站Machine Learning內(nèi)容分類里2509條帖子聚類分析的結(jié)果 (點(diǎn)擊“閱讀原文”查看大圖):

(Reddit上) 人們最關(guān)心的話題 (占比20%) 是數(shù)據(jù)集,包括訓(xùn)練數(shù)據(jù),大規(guī)模數(shù)據(jù)集,開源,新的數(shù)據(jù)、模型、樣本等等;其次是研究論文 (占比18%),包括復(fù)現(xiàn)結(jié)果、Kaggle競(jìng)賽和谷歌、FB的工作;再次是訓(xùn)練 (占比16%)。

Graphext對(duì)2018年Reddit機(jī)器學(xué)習(xí)帖子聚類結(jié)果:最受關(guān)注的是數(shù)據(jù)

雖是一家之言,但這個(gè)聚類結(jié)果也在一定程度上反映了當(dāng)前機(jī)器學(xué)習(xí)和人工智能從業(yè)者的關(guān)注點(diǎn)——數(shù)據(jù)!大數(shù)據(jù)!開源大數(shù)據(jù)!

也難怪作為學(xué)者的Zachary Lipton要說,2018年深度學(xué)習(xí)最大的進(jìn)展就是沒有進(jìn)展——我們?nèi)耘f在依靠大數(shù)據(jù),手握大數(shù)據(jù)和大算力的谷歌、FB等巨頭最容易出成果,而迫切復(fù)現(xiàn)其算法和模型的其他機(jī)器學(xué)習(xí)工程師則關(guān)注訓(xùn)練的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46372

    瀏覽量

    236574
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8324

    瀏覽量

    132192
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5440

    瀏覽量

    120798

原文標(biāo)題:2018機(jī)器學(xué)習(xí)和AI最大突破沒找到,但我發(fā)現(xiàn)了最大障礙!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工智能是什么?

    和提出都可以歸結(jié)于人工智能技術(shù)的高速發(fā)展。 作為創(chuàng)新型人工智能技術(shù)領(lǐng)域的典型代表——機(jī)器人,當(dāng)仁不讓的成為創(chuàng)新技術(shù)產(chǎn)業(yè)里的掌上明珠,也是信息時(shí)代轉(zhuǎn)向智能時(shí)代的標(biāo)志和結(jié)點(diǎn)。而隨著工業(yè)4
    發(fā)表于 09-16 15:40

    如何在人工智能機(jī)器領(lǐng)域應(yīng)用大數(shù)據(jù)?

    產(chǎn)品化,怎么找到突破點(diǎn)?第一點(diǎn)是street smart,第二點(diǎn)是跨界,第三點(diǎn)是預(yù)期??偟膩碚f,人工智能機(jī)器人與30前PC產(chǎn)業(yè)的發(fā)展階段類似,未來每個(gè)人都會(huì)有自己
    發(fā)表于 11-13 16:37

    百度總裁:百度在人工智能領(lǐng)域已有重大突破

      隨著阿法狗大戰(zhàn)李世石,人工智能引發(fā)越來越多的關(guān)注。百度總裁張亞勤28日表示,百度長(zhǎng)期堅(jiān)持技術(shù)創(chuàng)新,2015研發(fā)投入超過100億元,目前在人工智能領(lǐng)域已有重大
    發(fā)表于 07-01 15:22

    分享:人工智能算法將帶領(lǐng)機(jī)器人走向何方?

    等等。 人工智能分支 機(jī)器人作為人工智能領(lǐng)域的一個(gè)重要分支,面對(duì)著百億級(jí)別的市場(chǎng)增長(zhǎng)。據(jù)相關(guān)數(shù)據(jù)顯示,2015-
    發(fā)表于 08-16 10:44

    數(shù)據(jù)對(duì)人工智能發(fā)展的重要

    深圳拓略認(rèn)為數(shù)據(jù)對(duì)企業(yè)產(chǎn)生價(jià)值會(huì)比人工智能大很多,未來世界上50%的工作會(huì)被人工智能所取代,比如翻譯、助理、保安等等。人工智能在記憶、人臉識(shí)別方面比人更精確,機(jī)器
    發(fā)表于 10-09 15:26

    人類與人工智能機(jī)器人合作的前景

    `  人類工作者如果把人工智能機(jī)器人當(dāng)做合作伙伴,將能獲得很大福利。人類不用過于擔(dān)心人工智能會(huì)“砸”了我們的“飯碗”。因?yàn)樵谌伺c機(jī)器的競(jìng)爭(zhēng)中,人是有智慧的,而
    發(fā)表于 04-16 17:42

    電銷機(jī)器人成為2018人工智能最熱產(chǎn)業(yè)之一

    、自然語言處理、語音識(shí)別、機(jī)器學(xué)習(xí)應(yīng)用、計(jì)算機(jī)視覺與圖像、技術(shù)平臺(tái)、智能無人機(jī)、智能機(jī)器人、無人駕駛。目前這些
    發(fā)表于 05-21 15:54

    人工智能機(jī)器學(xué)習(xí)的前世今生

    摘要: 閱讀本文以了解更多關(guān)于人工智能機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方面的知識(shí),以及它們對(duì)商業(yè)化意味著什么。如果正確的利用模式識(shí)別進(jìn)行商業(yè)預(yù)測(cè)和決策,那么會(huì)為企業(yè)帶來巨大的利益。
    發(fā)表于 08-27 10:16

    人工智能:超越炒作

    ,而是使用人類推理作為提供更好服務(wù)或創(chuàng)造更好產(chǎn)品的指南。但是這有什么作用呢?我們來看看目前的方法。ML:解析,學(xué)習(xí),確定或預(yù)測(cè)的算法作為人工智能的一個(gè)子集,機(jī)器學(xué)習(xí)使用統(tǒng)計(jì)技術(shù)使計(jì)算機(jī)
    發(fā)表于 05-29 10:46

    python人工智能/機(jī)器學(xué)習(xí)基礎(chǔ)是什么

    python人工智能——機(jī)器學(xué)習(xí)——機(jī)器學(xué)習(xí)基礎(chǔ)
    發(fā)表于 04-28 14:46

    人工智能的應(yīng)用領(lǐng)域有哪些?

    表明,到2030,人工智能機(jī)器人可能會(huì)減少全球多達(dá)30%的人類勞動(dòng),到2030自動(dòng)化將取代4-8億個(gè)工作。1、機(jī)械加工機(jī)器人從事的零件
    發(fā)表于 10-23 11:07

    人工智能機(jī)器學(xué)習(xí)技術(shù)在2021的五個(gè)發(fā)展趨勢(shì)

    人工智能機(jī)器學(xué)習(xí)如今一直在改變著我們的世界,2020發(fā)生的冠狀病毒疫情為這兩種技術(shù)帶來了新的機(jī)會(huì)和緊迫性,預(yù)計(jì)在2021將會(huì)有更大的發(fā)
    發(fā)表于 01-27 06:10

    什么是人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和自然語言處理?

    ,就像人類神經(jīng)元的軟件拷貝。人工智能是一個(gè)涉及計(jì)算機(jī)理論、數(shù)學(xué)、統(tǒng)計(jì)、概率、數(shù)據(jù)挖掘和特定領(lǐng)域專業(yè)知識(shí)的多學(xué)科領(lǐng)域。機(jī)器學(xué)習(xí)
    發(fā)表于 03-22 11:19

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

    人工智能打發(fā)展是算法優(yōu)先于實(shí)際應(yīng)用。近幾年隨著人工智能的不斷普及,許多深度學(xué)習(xí)算法涌現(xiàn),從最初的卷積神經(jīng)網(wǎng)絡(luò)(CNN)到機(jī)器學(xué)習(xí)算法的時(shí)代。
    發(fā)表于 02-17 11:00

    機(jī)器學(xué)習(xí)人工智能有什么區(qū)別?

    機(jī)器學(xué)習(xí)人工智能有什么區(qū)別?當(dāng)今唯一可用的軟件選項(xiàng)是 ML 系統(tǒng)。在十左右的時(shí)間里,當(dāng)計(jì)算能力和算法開發(fā)達(dá)到可以顯著影響結(jié)果的地步時(shí),我們將見證第一個(gè)真正的
    發(fā)表于 04-12 08:21