人工智能的歷史告訴我們:隨著科技的進(jìn)步,機(jī)器會(huì)越來越聰明,但卻鮮少涉及人類在其中發(fā)揮的重要作用,包括怎么設(shè)計(jì)機(jī)器的原型,以及怎么訓(xùn)練它等等。
最近,IEEE Spectrum開了一個(gè)AI歷史系列,主要探討了AI史上人類的作用,例如發(fā)明家、思想家、工人或者工程師是如何創(chuàng)造出可以復(fù)制人類思想和行為(或者至少看似)的算法。
這個(gè)系列共有六個(gè)部分,本文是第三部分《人機(jī)共生的DARPA夢想家》。請(qǐng)戳這里閱讀第一篇、第二篇、第三篇。
1950年,數(shù)字時(shí)代初期,艾倫·圖靈發(fā)表了他最著名的文章“計(jì)算機(jī)器與智能”,并提出了一個(gè)問題,“機(jī)器可以思考嗎?”
圖靈并沒有試圖定義“機(jī)器”和“思考”,他描述了另一種來回答這個(gè)問題的防范。這個(gè)方法來自維多利亞式的客廳娛樂,稱為模仿游戲。 游戲規(guī)則規(guī)定,不同房間的男女通過手寫筆記與判定者溝通。判定者需要猜測誰是誰,游戲中因?yàn)槟腥藭?huì)試圖模仿女人,猜測的過程會(huì)變得復(fù)雜。
受此啟發(fā),圖靈設(shè)計(jì)了一個(gè)思想實(shí)驗(yàn),其中一個(gè)參賽者被計(jì)算機(jī)取代。如果這臺(tái)計(jì)算機(jī)讓判定者無法判斷他是在與機(jī)器還是人交談,圖靈認(rèn)為,那就可以合理地得出結(jié)論 – 這臺(tái)機(jī)器是智能的。
這個(gè)思想實(shí)驗(yàn)被稱為圖靈測試,直到今天,它仍然是人工智能中最著名和最具爭議的想法之一。 該測試最吸引人的地方在于它為一個(gè)充滿哲學(xué)意味的問題給出了一個(gè)明確的答案: “機(jī)器可以思考嗎?” 如果計(jì)算機(jī)通過圖靈測試,那么答案就是肯定的。
正如哲學(xué)家Daniel Dennetthas所寫的那樣,圖靈測試被認(rèn)為是一個(gè)哲學(xué)討論的終結(jié)。 “不是無休止地爭論思維的終極本質(zhì)和要義,” Dennett寫道,“我們無法否認(rèn),無論智能的本質(zhì)如何,任何可以通過測試的東西就是智能體”
但仔細(xì)閱讀圖靈的論文會(huì)發(fā)現(xiàn)一個(gè)小細(xì)節(jié),測試中引入了模糊性,這表明也許圖靈更多想用它引發(fā)哲學(xué)討論,而非用作實(shí)際測試。
在“計(jì)算機(jī)器和智能”的一個(gè)部分中,圖靈用想象中的未來智能計(jì)算機(jī)模擬了測試的情景。 (人在問問題,電腦在回答。)
問:請(qǐng)給我寫一篇關(guān)于Forth Bridge主題的十四行詩。
答:饒了我吧。我永遠(yuǎn)不會(huì)寫詩。
問:把34957和70764相加。
答:(暫停約30秒然后給出答案)105621。
問:你下國際象棋嗎?
答:是的。
問:我的K1上有K,沒有其他棋子。你只有K在K6,以及R在R1。到你了,你怎么走這一步?
答:(暫停15秒后)R到R8,將軍。
在對(duì)話中,計(jì)算機(jī)其實(shí)犯了一個(gè)算術(shù)錯(cuò)誤,數(shù)字的總和應(yīng)該是105721,而不是105621。圖靈,一位出色的數(shù)學(xué)家,不太可能犯這種錯(cuò)誤。這更有可能是拋給讀者的一個(gè)彩蛋。
似乎圖靈在文章的其他地方也有暗示,錯(cuò)誤是一種編程技巧,一種愚弄判定者的手段。圖靈明白,如果仔細(xì)閱讀計(jì)算機(jī)的回答會(huì)發(fā)現(xiàn)錯(cuò)誤,人們會(huì)認(rèn)為這與人類吻合,因?yàn)轭A(yù)先假設(shè)了機(jī)器不會(huì)犯下這樣基礎(chǔ)的算術(shù)錯(cuò)誤。圖靈寫道,一臺(tái)機(jī)器可以被編程然后“在計(jì)算上故意引入錯(cuò)誤以此來混淆提問者”。
在1950年,使用錯(cuò)誤來暗示人類智慧的想法可能很難理解,但如今它已成為從事自然語言處理的程序員的練手題。 例如,據(jù)報(bào)道,2014年6月,一個(gè)名為Eugene Goostman的聊天機(jī)器人成為第一臺(tái)通過圖靈測試的計(jì)算機(jī)。但批評(píng)者很快指出Eugene只是因?yàn)閮?nèi)在的作弊而通過了測試:Eugene模擬了一個(gè)英語為第二語言的13歲男孩。這意味著他在句法和語法上的錯(cuò)誤以及他有限的知識(shí)會(huì)被誤認(rèn)為天真和不成熟,而不是自然語言處理能力的缺陷。
類似地,谷歌的語音助理系統(tǒng)Duplex,去年它人性化的加上了“嗯”和“啊”的語氣詞~引來了人們的贊嘆。很多人指出這不是系統(tǒng)真正思考的結(jié)果,而是人工編碼的猶豫,以模仿人類的認(rèn)知。
這兩個(gè)案例都符合圖靈的想法,即可以設(shè)計(jì)計(jì)算機(jī)犯簡單的錯(cuò)誤,讓人誤以為這就是人類。 像圖靈一樣,Eugene Goostman和Duplex的程序員明白,人類容易犯錯(cuò)的表面幌子就足以欺騙我們。
也許圖靈測試并不能真正評(píng)估機(jī)器是否智能,只是我們是否愿意接受該機(jī)器是否有智能的判斷標(biāo)準(zhǔn)。正如圖靈自己所說:“智能的概念本身就是情感而非數(shù)學(xué)。我們認(rèn)為某物有智能行為的程度,既取決于所考慮對(duì)象的屬性,也取決于我們的心態(tài)和受到的訓(xùn)練。”
也許智能不是可以編程到機(jī)器中的東西,圖靈似乎是在這樣暗示——而是通過社交互動(dòng)構(gòu)建的特質(zhì)。
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
28003瀏覽量
205566 -
人工智能
+關(guān)注
關(guān)注
1789文章
46368瀏覽量
236557
原文標(biāo)題:為何艾倫·圖靈想讓AI智能體故意犯錯(cuò)
文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論