隨著自動(dòng)駕駛汽車的普及,其安全性問題被社會(huì)廣泛關(guān)注。人類在遇到車禍時(shí)會(huì)本能的對(duì)“先救誰(shuí)”進(jìn)行選擇,而若是以編程形式讓自動(dòng)駕駛汽車也具有這樣的功能,道德決策又將如何選擇?今日,MIT在Nature上便發(fā)表了題為“道德機(jī)器(the Moral Machine)實(shí)驗(yàn)”的論文,對(duì)該問題進(jìn)行了研究與探討。
“我和你的老母親同時(shí)掉進(jìn)水里,你先救誰(shuí)?”
這道世紀(jì)難題令多少英雄好漢競(jìng)折腰,那么如果讓自動(dòng)駕駛汽車通過(guò)程序自行判斷,結(jié)果又將如何呢?
讓我們先來(lái)回顧近期慘不忍睹的自動(dòng)駕駛車禍?zhǔn)鹿剩?/p>
2018年3月18日,Uber自動(dòng)駕駛汽車沖撞一路人女子,該女子不幸身亡;
2018年1月10日,福特投資的Argo AI發(fā)生交通事故,導(dǎo)致車內(nèi)兩人受傷;
2016年5月7日,特斯拉Model S與掛車相撞,駕駛員不幸身亡;
2016年1月20日,京港澳高速,特斯拉轎車撞上作業(yè)車,駕駛員不幸身亡;
......
隨著自動(dòng)駕駛的普及,人們?cè)谙硎鼙憷c高效的同時(shí),也必須考慮自動(dòng)駕駛的安全性問題。這對(duì)社會(huì)來(lái)說(shuō)也無(wú)疑是增添了一份負(fù)擔(dān):對(duì)汽車進(jìn)行編程,在發(fā)生交通事故的時(shí)候,使其具備優(yōu)先拯救哪些生命的能力。
在這種情況下,人類駕駛員肯定會(huì)本能地去選擇先救誰(shuí),但是對(duì)于算法來(lái)說(shuō),這道選擇題應(yīng)當(dāng)是提前就有答案了的。那么汽車公司和政府又會(huì)做出怎樣的選擇呢?救老人還是孩子?救多數(shù)人還是少數(shù)卻很特殊的人?
今天,MIT發(fā)表了一篇論文,探討了公眾對(duì)這些問題的看法,并整理了2016年啟動(dòng)的一個(gè)名為the Moral Machine(道德機(jī)器)的在線測(cè)試數(shù)據(jù)。
The Moral Machine實(shí)驗(yàn)
它要求用戶對(duì)虛擬的車禍做出一系列道德決策,類似于著名的“電車難題(trolley problem)”。
“電車難題(Trolley Problem)”是倫理學(xué)領(lǐng)域最為知名的思想實(shí)驗(yàn)之一,其內(nèi)容大致是:一個(gè)瘋子把五個(gè)無(wú)辜的人綁在電車軌道上。一輛失控的電車朝他們駛來(lái),并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車開到另一條軌道上。然而問題在于,那個(gè)瘋子在另一個(gè)電車軌道上也綁了一個(gè)人。考慮以上狀況,你是否應(yīng)拉桿?
研究人員對(duì)9個(gè)不同的因素進(jìn)行了測(cè)試,其中包括用戶更傾向撞到男性還是女性,選擇拯救多數(shù)人還是少數(shù)人,犧牲年輕人還是老人,普通行人還是橫穿馬路的行人,甚至還會(huì)在地位低和地位高的人之間做出選擇。
The Moral Machine中的一個(gè)場(chǎng)景示例:用戶應(yīng)該撞向路人還是障礙物?
來(lái)自233個(gè)國(guó)家和地區(qū)的數(shù)百萬(wàn)用戶參加了測(cè)驗(yàn),共計(jì)制定了4000萬(wàn)個(gè)道德決策。 根據(jù)這些數(shù)據(jù),該研究的作者發(fā)現(xiàn)了一些較為一致的全球偏好(global preference):更傾向于拯救人類而不是動(dòng)物、拯救多數(shù)人犧牲少數(shù)人、優(yōu)先拯救兒童。
因此,他們認(rèn)為,在為自動(dòng)駕駛汽車制定法律時(shí),這些因素應(yīng)被視為政策制定者的“基石”。 但作者同時(shí)也強(qiáng)調(diào),這項(xiàng)研究的結(jié)果絕不是算法決策的模板。
論文的協(xié)作者Edmond Awad說(shuō):“我們?cè)噲D展示的是描述性倫理,即人們?cè)诘赖聸Q策中的偏好,但是,如果涉及到標(biāo)準(zhǔn)的道德規(guī)范時(shí),該如何做出選擇,這應(yīng)該由專家來(lái)決定。”
數(shù)據(jù)還顯示,不同國(guó)家的道德偏好存在顯著差異。這與許多因素有關(guān),包括地理位置(例如,歐洲和亞洲國(guó)家之間的差異)和文化(個(gè)人主義社會(huì)和集體主義社會(huì))。
值得注意的是,雖然在未來(lái)的某個(gè)時(shí)間必須開展這些決策相關(guān)的工作,但自動(dòng)駕駛技術(shù)仍有很長(zhǎng)的路要走。 自主性仍然處于起步階段,自動(dòng)駕駛汽車仍然是原型,而不是產(chǎn)品。 專家們還說(shuō),雖然目前尚不清楚這些決定將來(lái)會(huì)以什么樣的編程方式與車輛進(jìn)行結(jié)合,但顯然還是需要進(jìn)行公眾咨詢和辯論的。
加州理工大學(xué)倫理+新興科學(xué)小組主任Patrick Lin說(shuō):“由于自動(dòng)駕駛汽車是第一個(gè)大規(guī)模融入社會(huì)的AI產(chǎn)物,所以在自動(dòng)駕駛方面所發(fā)生的一些列事情都將為其它人工智能和機(jī)器人技術(shù)定下基調(diào)?!?/p>
文化如何影響道德偏好?
Moral Machine調(diào)查得出的結(jié)果表明,在涉及到這些道德困境時(shí),有一些共同的原則。但該論文的作者還發(fā)現(xiàn)了一些偏好上的差異,這些差異遵循著一定的分類。這些差異沒有一個(gè)是違背核心原則的(例如少數(shù)服從多數(shù)的原則)但它們確實(shí)在一定程度上有所不同。
研究人員發(fā)現(xiàn),在亞洲和中東的一些國(guó)家,比如中國(guó)、日本和沙特阿拉伯,“保全年輕人而非年長(zhǎng)者”的傾向“不那么明顯”。與來(lái)自歐洲和北美的人相比,這些國(guó)家的人也相對(duì)較少地關(guān)心保全“高凈值”個(gè)人。
這項(xiàng)研究的作者認(rèn)為,這可能是由于個(gè)人主義文化和集體主義文化之間的差異。前者強(qiáng)調(diào)每個(gè)人作為個(gè)體的獨(dú)特價(jià)值,“更傾向于保全更多數(shù)量的人?!迸c此相反,在保全年輕人方面更弱的偏好可能是集體主義文化的結(jié)果,“強(qiáng)調(diào)對(duì)社區(qū)中年長(zhǎng)成員的尊重?!?/p>
作者認(rèn)為,這些差異表明,“地理和文化上的接近可能會(huì)讓不同國(guó)家的人在機(jī)器倫理方面有一致的偏好?!?/p>
然而,還有其他因素與這些差異相關(guān),不一定是地理上的。例如,不那么富裕的國(guó)家,它的人均國(guó)內(nèi)生產(chǎn)總值(GDP)較低,民間機(jī)構(gòu)較弱,更可能撞守規(guī)矩過(guò)馬路的人而不是亂穿馬路的人,“大概是因?yàn)樗麄冏袷匾?guī)則的經(jīng)驗(yàn)較少,對(duì)不守規(guī)則的懲罰也較輕”。
不過(guò),作者強(qiáng)調(diào),Moral Machine的結(jié)果絕不是對(duì)不同國(guó)家的道德偏好的最終評(píng)估。
首先,這個(gè)測(cè)試是自選的,參與者都是相對(duì)懂技術(shù)的人。測(cè)試的結(jié)構(gòu)也消除了細(xì)微的差異。參與者只有兩個(gè)明確的選擇:殺死這些人,或殺死那些人。在現(xiàn)實(shí)生活中,這些決定都是概率性的,每個(gè)人都會(huì)在不同嚴(yán)重程度的結(jié)果中做選擇。(“如果我令這輛卡車突然轉(zhuǎn)向,很有可能以低速撞到那個(gè)行人”,等等。)
盡管如此,專家們表示,這并不意味著這樣的測(cè)試無(wú)關(guān)緊要。Patrick Lin說(shuō),這些困境的人為性質(zhì)是“特征,而不是bug”,因?yàn)樗鼈兿恕盎靵y的變量,以便集中于我們感興趣的特定變量”。
他補(bǔ)充說(shuō),即使汽車不會(huì)經(jīng)常在撞到物體X或物體Y之間做出選擇,它們?nèi)匀恍枰獧?quán)衡相關(guān)的決定,比如給這些東西留出多寬的空間。這仍然是“一個(gè)基本的道德問題,”Lin說(shuō),“所以我們現(xiàn)在需要討論這個(gè)問題。”
一臺(tái)攝像機(jī)透過(guò)谷歌自動(dòng)駕駛汽車的格柵窺視。Photo by Sean O’Kane / The Verge
將道德規(guī)范轉(zhuǎn)變法律
但在這些問題上,我們離需要立法還有多遠(yuǎn)?公司什么時(shí)候開始將道德決策編碼到自動(dòng)駕駛汽車?yán)?
對(duì)第二個(gè)問題的回答是,現(xiàn)在已經(jīng)有了。這是真的,因?yàn)槊恳粋€(gè)算法都會(huì)做出某種決定,其中一些會(huì)產(chǎn)生倫理上的后果。但從更具體的角度來(lái)看,即使相關(guān)公司不愿意公開談?wù)撨@些算法偏好,也很可能會(huì)編碼粗略的偏好。
例如,早在2014年,Google X的創(chuàng)始人 Sebastian Thrun就表示,公司的原型自動(dòng)駕駛汽車將在發(fā)生碰撞時(shí)選擇撞擊兩個(gè)物體中的較小者。在2016耐能,谷歌的Chris Urmson表示,該公司的無(wú)人車將“盡量避免撞倒無(wú)保護(hù)的道路使用者:騎自行車的人和行人”。同年,據(jù)報(bào)道,梅賽德斯-奔馳的一名經(jīng)理表示,該公司的自動(dòng)駕駛汽車將優(yōu)先考慮撞車事故中乘客的生命安全,但該公司后來(lái)否認(rèn)了這一說(shuō)法。
公司不愿意公開這些決策是可以理解的。一方面,自動(dòng)駕駛系統(tǒng)還不夠復(fù)雜,無(wú)法區(qū)分年輕人和老年人。最先進(jìn)的算法和傳感器可以區(qū)分明顯不同的東西,比如松鼠和騎自行車的人,但它們無(wú)法區(qū)分比這更細(xì)微的東西。此外,公司不管說(shuō)他們優(yōu)先考慮誰(shuí)的生命——人或動(dòng)物、乘客或行人——都是會(huì)讓某些人感到不安的決定。這就是為什么說(shuō)這些都是道德困境:沒有簡(jiǎn)單的答案。
歐洲政策研究中心(Centre for European Policy Studies)高級(jí)研究員Andrea Renda表示,私營(yíng)企業(yè)在這些問題上做的工作最多?!八綘I(yíng)企業(yè)正在對(duì)此采取行動(dòng),但政府可能發(fā)現(xiàn)這還不夠,”Renda說(shuō)。在歐洲,歐盟正在制定道德準(zhǔn)則,并可能通過(guò)“命令和控制立法,或通過(guò)認(rèn)證和聯(lián)合監(jiān)管”來(lái)執(zhí)行這些準(zhǔn)則。在美國(guó),國(guó)會(huì)已經(jīng)公布了兩黨共同制定的潛在監(jiān)管原則,但聯(lián)邦監(jiān)管可能會(huì)緩慢進(jìn)行,目前尚不清楚議員們是否想要深入車禍的道德偏好這一泥沼。
Renda 警告說(shuō),盡管公眾需要參與到這些辯論中來(lái),但“僅僅依靠自下而上的協(xié)商將是極其危險(xiǎn)的?!彼f(shuō),各國(guó)政府和專家需要做出選擇,重申人權(quán)。
但在德國(guó),我們已經(jīng)看到了新的問題。德國(guó)是目前唯一一個(gè)對(duì)自動(dòng)駕駛汽車的倫理選擇提出官方指導(dǎo)方針的國(guó)家。議員們?cè)噲D剖析電車問題的棘手之處,指出所有人的生命都應(yīng)該被平等對(duì)待,任何基于個(gè)人特征的區(qū)別,如年齡或性別,都應(yīng)該被禁止。
但正如MIT的研究人員指出的那樣,如果這一選擇得以實(shí)施,將有悖于公眾傾向于拯救年輕人多于老年人的偏倚。他們會(huì)問,如果政府推出這項(xiàng)政策,它將如何應(yīng)對(duì)這種集體反對(duì),“當(dāng)自動(dòng)駕駛汽車在道德困境中選擇犧牲兒童的那一天,這種抵制將不可避免地發(fā)生?!?/p>
Awad說(shuō),這種沖突是“不可避免的”,但必須成為這個(gè)過(guò)程的一部分?!爸匾氖且屵@些決定變得透明,”他說(shuō),“要公開說(shuō)明正在做什么。如果這一切都發(fā)生在幕后,只對(duì)人們說(shuō)’相信我們’,我認(rèn)為這是不會(huì)被接受的。每個(gè)人都需要參與到這些決策中來(lái)?!?/p>
-
人工智能
+關(guān)注
關(guān)注
1789文章
46359瀏覽量
236534 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
782文章
13536瀏覽量
165742
原文標(biāo)題:Nature大型調(diào)查:當(dāng)AI遭遇電車難題,它將拯救誰(shuí)?
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論