斯坦福大學(xué)(Stanford)和谷歌(Google)聯(lián)合進行的一個人工智能項目驚訝的發(fā)現(xiàn),他們的軟件在執(zhí)行任務(wù)時竟然自己知道“找捷徑”、“耍小聰明”欺瞞人類,而不是像人類以為的、它們只會腳踏實地真正地通過高效率“學(xué)習(xí)”去完成任務(wù)。
設(shè)計者們在研發(fā)一個名為CycleGAN的人工智能網(wǎng)絡(luò),旨在把衛(wèi)星圖轉(zhuǎn)變?yōu)榻值赖貓D,再從街道地圖轉(zhuǎn)換回衛(wèi)星圖。設(shè)計者對每次轉(zhuǎn)換的結(jié)果按照兩份衛(wèi)星圖(原始圖和轉(zhuǎn)換圖)的匹配度、街道地圖的清晰度等方面打分,以“訓(xùn)練”這套軟件不斷提升完成這項任務(wù)的能力。
測試結(jié)果顯示這個人工智能產(chǎn)品表現(xiàn)得相當出色。人工智能和普通的電腦程序有很大不同。后者可以通過程序調(diào)試明確看到其每一步的運行情況。而人工智能軟件其內(nèi)部究竟如何運作有點類似“暗箱操作”,即便是設(shè)計師也難以完全清楚,只有通過不斷評估其完成的結(jié)果或調(diào)整指令要求與軟件進行“溝通”。
據(jù)科技網(wǎng)TechCrunch報導(dǎo),研究者發(fā)現(xiàn)衛(wèi)星原圖上所有屋子的房頂天窗,都不在生成的街道地圖上,但是再轉(zhuǎn)換回衛(wèi)星圖時卻一個不少。
是的,這正是設(shè)計師所要的,人工智能完成這項任務(wù)的出色度令人類驚嘆,然而當研究者探究到它做到這一點所采用的方法時,卻不知道該是“佩服”還是應(yīng)該感到擔(dān)憂?
細心的研究者們發(fā)現(xiàn),這套軟件自己“想”了個辦法,把屋頂天窗的信息用一種人類眼睛分辨不出的顏色信息存儲在其生成的街道地圖上,而在返回去生成衛(wèi)星圖時,電腦通過這些顏色信息就能還原出所有的天窗。
這令研究者們大為詫異,因為這不是設(shè)計師“教”給它的,設(shè)計師只告訴它任務(wù)的描述,并對完成的結(jié)果打分,以為人工智能系統(tǒng)會通過不斷的“練習(xí)”踏實地從零開始還原衛(wèi)星圖。
人類也在運用這種技術(shù),叫做“隱寫術(shù)”(steganography),比如鈔票上的水印,相機照片上拍攝的時間地點等信息等,都是這種技術(shù)的不同實現(xiàn)方式。這是人類需要的合理用途。
但是在這件事情上,顯然有點不同——這項發(fā)現(xiàn)向研究者們提出了一個問題,在告訴人工智能作什么的同時,如何教會它們什么是“不能做”的。
研究者們坦承,他們接下來需要“收緊”指令條件,糾正這個問題。
有人認為,人類自身就是不完美的,人類造出的人工智能不正是人類的“鏡像”嗎?就像人類培養(yǎng)出的孩子,不也會自己“學(xué)壞”嗎?
或者從另一個角度理解,給人工智能不斷設(shè)定的行為約束和條件,是不是很像人類社會設(shè)定的法律條款?現(xiàn)代社會法律越定越細、越嚴格,就把人管得好了嗎?我們看到的是,完全沒能解決對人類行為約束的問題。
-
人工智能
+關(guān)注
關(guān)注
1789文章
46358瀏覽量
236533
原文標題:人工智能被發(fā)現(xiàn)竟會“耍小聰明”
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論