不久前,一篇題為《AI寒冬將至》的文章火了,引發(fā)AI領(lǐng)域?qū)<覍W(xué)者、研究人員、學(xué)生甚至吃瓜群眾的大量討論。該文對有關(guān)深度學(xué)習(xí)的炒作提出批評,認為深度學(xué)習(xí)已經(jīng)塵埃落定,就像股市會崩盤,AI的寒冬一定會再次來臨,雖然無法預(yù)測它何時來臨。這篇文章的作者Filip Piekniewski是計算機視覺和AI領(lǐng)域的專家,經(jīng)過幾周的思考,他重新總結(jié)了自己對AI的觀點,值得深思。
最近幾周,我被迫重新思考和總結(jié)我對AI的看法。在《AI寒冬將至》那篇帖子廣為傳播后,很多人通過電子郵件和twitter聯(lián)系我,提出了很多好的建議。因此,我決定以簡潔的方式寫一下我認為我們的人工智能方法存在什么問題,以及我們可以解決什么問題。以下是10個要點:
1.我們被圖靈對智能的定義所束縛了。圖靈有關(guān)智能構(gòu)想很著名,他將智力限制為一種和人類進行語言游戲的解決方案。具體來說,圖靈將智能設(shè)定為(1)游戲的解決方案,(1)將人類置于判斷的位置。這個定義非常具有迷惑性,并很適合人工智能領(lǐng)域。狗,猴子,大象,甚至嚙齒類動物都是非常聰明的生物,但它們沒有語言,因此也不可能通過圖靈測試。
2.人工智能的核心問題莫拉維克悖論(Moravec's paradox)。這個問題在今天要比1988年它剛被提出時要明顯得多,而我們在過去30年里幾乎沒有采取任何行動來解決這個問題,這是令人羞愧的。莫拉維克悖論的核心論點是,現(xiàn)實中最簡單的問題比最復(fù)雜的游戲更難解。(注:如莫拉維克所寫;“要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的?!保┪覀兂撩杂诹預(yù)I在游戲中超越人類(以及其他受限且定義明確的話語領(lǐng)域,如數(shù)據(jù)集),將其作為智能的指標,作為一種與圖靈測試一致的標準。我們完全忽略這樣一個事實:對智能的最終判斷由現(xiàn)實本身,而不是由一個人類組成的委員會作出。
3.我們的模型甚至可能起作用,但往往是出于錯誤的原因。我在其他文章詳細闡述過這點,深度學(xué)習(xí)就是一個很好的例子。深度學(xué)習(xí)顯然已經(jīng)解決了物體識別問題,但是大量研究表明,深度神經(jīng)網(wǎng)絡(luò)能識別物體的原因與人類能觀察到物體的原因大不相同。對于用圖靈測試精神欺騙人類的人來說,這可能并不重要。但對于關(guān)注人工智能體處理非預(yù)期(域外)現(xiàn)實的能力的人來說,這是至關(guān)重要的。
4. 現(xiàn)實不是游戲。就算跟游戲有關(guān),它也是一個無限的游戲集合,其中的規(guī)則不斷變化。任何時候只要出現(xiàn)了重大發(fā)展,游戲規(guī)則都會要重寫,所有玩家都需要作出調(diào)整,否則就會死亡。智能是一種機制,它會進化以令智能體能夠解決問題。由于智能是一種輔助我們玩“規(guī)則不斷變化的游戲”的機制,因此作為一種副作用,它能讓我們玩有一套固定規(guī)則的實際游戲也就不足為奇了。但反過來就不成立了:構(gòu)建在玩固定規(guī)則游戲時勝過人類能力的機器,跟構(gòu)建一個能夠玩“規(guī)則不斷變化的游戲”的系統(tǒng)差得遠了。
5.物理現(xiàn)實中有一些規(guī)則是不變的——即物理定律。我們用語言描述他們,并利用它們來做預(yù)測,從而建立文明。但是為了在這個物理環(huán)境中行動,這個星球上的每一種生物體都掌握了這些定律,并不需要語言。小孩子在學(xué)會牛頓運動定律之前,就知道蘋果會從樹上掉下來。
6.我們的視覺統(tǒng)計模型其實是非常不足的,因為它們僅依賴于某一時間的事物和人類指定的抽象標簽進行識別。深度神經(jīng)網(wǎng)絡(luò)能夠看到數(shù)以百萬計的蘋果掛在樹上的圖像,但永遠不可能發(fā)現(xiàn)萬有引力定律(以及許多對我們來說很顯然的東西)。
7.常識的困難之處在于它對我們而言是在太顯而易見了,甚至很難用語言去描述它,進而在數(shù)據(jù)中給它打標簽。對于所有“顯而易見”的東西,我們存在巨大的盲點。因此,我們無法教計算機常識,不僅因為這可能不切實際,更根本的原因是我們甚至沒有意識到“常識”是什么。直到我們發(fā)現(xiàn)機器人做了一些很愚蠢的事情,我們才頓悟:“哦,原來它不懂...... [這里可以填任何顯而易見的常識] ......”。
8. 如果我們想解決“莫拉維克的悖論”(我認為應(yīng)該是當今任何嚴肅的AI工作的焦點),我們就多少需要模仿生物體純粹依靠觀察世界學(xué)習(xí)的能力,而不需要標簽。實現(xiàn)這一目標的一個有希望的想法是構(gòu)建一個系統(tǒng),對未來的事件進行預(yù)測,并通過將實際的發(fā)展與系統(tǒng)的預(yù)測進行比較來學(xué)習(xí)。大量的實驗表明,這確實是生物大腦中發(fā)生的事情,并且從許多角度來看這樣做都很有意義,因為這些系統(tǒng)必須要學(xué)習(xí)物理定律。預(yù)測視覺模型(predictive vision model)是朝這個方向邁出的一步,但肯定不是最后一步。
9.我們迫切需要在圖靈的定義之外定義“智能”的特征。一個不錯的想法來自非平衡態(tài)熱力學(xué)(non-equilibrium thermodynamics),并與預(yù)測假設(shè)一致。我們需要這樣做,因為我們需要構(gòu)建智能體,這些智能體肯定通不過圖靈測試(因為它們沒有語言智能),但我們需要一個框架來衡量我們的進展。
10. 我們今天所做的幾乎所有稱之為AI的事情,都是可以用語言表達的某種形式的自動化。在許多領(lǐng)域,這些所謂AI可能有用,但這與用Excel取代紙質(zhì)表格來幫助會計師,實際上沒有什么不同。有問題(并且問題始終存在)的領(lǐng)域是自主(autonomy)。自主不是自動化(automation)。自主不僅僅意味著自動化。如果是要求比人類更安全的自主的話,那么它意味著更多,比如說自動駕駛汽車。自主應(yīng)該是廣義智能的同義詞,因為它假設(shè)能夠處理意外的、未經(jīng)訓(xùn)練的,未知的事物。
以上是我想傳達的核心要點。這些論點有細微的差別,這就是我寫這篇文章的原因。當然,如果你承認這些要點,我們的觀念就基本上是一致的。《AI寒冬將至》那篇文章還有其他許多細節(jié)受到激烈的辯論,雖然我認為這些細節(jié)不是必要的,但為了完整起見,讓我就其中的一些表達我的看法:
1.天生的還是后天習(xí)得的?當然,有的生物具有天生的能力,但無疑也有后天學(xué)習(xí)的東西。不過,這是一個與實現(xiàn)(implementation)相關(guān)的問題,我認為它沒有明確的答案。在我們未來的發(fā)展中,我確信我們會使用兩者的結(jié)合。
2.學(xué)習(xí)特征還是人工構(gòu)建的特征?這是一個相關(guān)的問題。我的觀點是,“皮層計算”(cortical computation)的絕大部分會被習(xí)得,這是在AI和自主的背景下(但這并不意味著如果它被證明有用,或由于某種原因難以學(xué)習(xí),我們就不能人工構(gòu)建它)。大腦里還有很大一部分很可能預(yù)置的。在更具體的自動化應(yīng)用中,這兩種情況都可能會有。在某些情況下,學(xué)習(xí)的特征可能明顯優(yōu)于人工構(gòu)建的特征(這是深度學(xué)習(xí)的賣點所在),但在許多應(yīng)用中,人工精心制作和開發(fā)的特征絕對、毫無疑問優(yōu)于任何學(xué)習(xí)的東西??偟膩碚f,我認為這是一個偽命題。
3.脈沖,連續(xù),數(shù)字還是模擬,又或是量子?我對此沒有非常強烈的主張,每一種都有優(yōu)點和缺點。數(shù)字簡單,確定并且易于獲得。模擬很難控制但功耗要低得多。脈沖(spiking)也是,,雖然它的額外好處是更接近生物學(xué),這可能意味著它是更好的解決方案。量子? 我不確定是否有強有力的證據(jù)證明量子計算在解決智能問題方面有必要性,盡管我們可能會發(fā)現(xiàn)它是必要的。這些都是“如何做?”(how)的問題,但我的主要興趣還是“是什么?”(what)的問題。
-
人工智能
+關(guān)注
關(guān)注
1789文章
46365瀏覽量
236541 -
圖靈
+關(guān)注
關(guān)注
1文章
37瀏覽量
9676
原文標題:《AI寒冬將至》作者:人工智能存在十大問題
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論