一年前,49歲的Elaine Herzberg在穿過(guò)亞利桑那州坦佩的一條馬路時(shí),一輛Uber公司的汽車(chē)撞向了她。最終,Elaine經(jīng)搶救無(wú)效死亡。
彼時(shí),無(wú)人駕駛正呈現(xiàn)一片熱火景象,但人們想不到的是,它還會(huì)以站在審判席上的形式讓自己進(jìn)一步“出名”。
是的,這起重大交通悲劇的肇事者,并不是人,而是這輛車(chē)本身?;蛘吒鼫?zhǔn)確地說(shuō),是它的自動(dòng)駕駛系統(tǒng)。
這場(chǎng)審判是漫長(zhǎng)的,直到一年后的今天,一個(gè)不盡完美的結(jié)果:Uber不承擔(dān)刑事責(zé)任。但當(dāng)時(shí)在車(chē)上負(fù)責(zé)安全的司機(jī)Rafael Vasquez(Uber安排了后備司機(jī)以防自動(dòng)駕駛系統(tǒng)出問(wèn)題)的行為應(yīng)該由坦佩警方進(jìn)一步調(diào)查。
最終,在AI引起的事故中,人仍然承擔(dān)了主要的責(zé)任。
但是,在可以預(yù)見(jiàn)的未來(lái),面對(duì)一輛無(wú)需后備司機(jī),真正的無(wú)人車(chē)肇事,我們的審判是不是會(huì)更加漫長(zhǎng)和痛苦?
也許來(lái)的太早,但無(wú)人車(chē)事故等AI發(fā)展過(guò)程中必然會(huì)發(fā)生的陣痛,正在不斷提醒我們,是時(shí)候正視AI的道德倫理問(wèn)題。
01AI要德才兼?zhèn)?/strong>
AI與前幾個(gè)世紀(jì)的革命性技術(shù)都有著巨大的不同。
我們?cè)?jīng)如何提高生產(chǎn)力?通過(guò)提升能源動(dòng)力(蒸汽、內(nèi)燃、電),或提高數(shù)據(jù)處理及信息傳遞效率(電話、計(jì)算機(jī))。
但這些技術(shù)的運(yùn)用是物質(zhì)的,機(jī)械式的,不具有抽象的思維屬性。比如你操作紡織機(jī),按一下開(kāi)關(guān)它執(zhí)行一個(gè)工作,不多不少。
但AI是一項(xiàng)認(rèn)知技術(shù)。
正如其名“人工智能”,它擁有精神活動(dòng),具備思考能力。它是一個(gè)中樞系統(tǒng),能通過(guò)“接觸、認(rèn)知、理解、學(xué)習(xí)”這一系列“大腦活動(dòng)”后,運(yùn)用一系列設(shè)備完成復(fù)雜任務(wù)。因此,它可以應(yīng)用于各種領(lǐng)域,并具有自主性與創(chuàng)造性。
顯然,機(jī)器人比紡織機(jī)能執(zhí)行更多需求
基于深度學(xué)習(xí)等理論的發(fā)展,AI將越來(lái)越像人類(lèi)一樣去思考,工作起來(lái)也愈發(fā)靈活,似乎實(shí)現(xiàn)終極目標(biāo):讓AI可以代替人類(lèi)完成世界上大部分工作的日子已經(jīng)越來(lái)越近了。
可我們經(jīng)常會(huì)忽視一個(gè)問(wèn)題,生活中一切復(fù)雜的事,都充滿(mǎn)了選擇與變化,這不只是高性能可以解決的。
人類(lèi)如何行動(dòng)?靠是非觀、價(jià)值觀、道德意識(shí)等等,我們一般稱(chēng)為“靈活思考”。
AI如何行動(dòng)?在沒(méi)有道德倫理引導(dǎo)時(shí),即使擁有與人類(lèi)無(wú)差別的思考能力,它也是“任務(wù)優(yōu)先”。AI基于指令、邏輯、最多再加一些理性來(lái)做出行動(dòng),我們稱(chēng)為“死腦筋”。
只有“死腦筋”的AI是可怕的。
在電影《2001太空漫游》中,人類(lèi)的木星探測(cè)飛船搭載的超級(jí)電腦HAL 9000收到了兩條指令:1. 不惜一切代價(jià)完成木星任務(wù);2. 向船員隱瞞實(shí)情。其實(shí)兩條指令互相矛盾,因?yàn)榇瑔T對(duì)任務(wù)完成至關(guān)重要,但HAL最終毫不猶豫地停止了船員的冬眠維生裝置。
回到最近的現(xiàn)實(shí),18年震驚全國(guó)的悲劇“空姐搭滴滴順風(fēng)車(chē)遇害案”中,暴露出滴滴軟件的社交功能,可以針對(duì)性地智能推送乘客過(guò)往評(píng)價(jià)給司機(jī),此時(shí)系統(tǒng)優(yōu)先考慮的是如何提高匹配接單率和商業(yè)效益,卻忽視了女性等潛在受害者的利益。
因此,從人類(lèi)的角度來(lái)說(shuō),道德倫理的作用,就是讓AI也能像人一樣正確地“靈活思維”,即能跨越指令的束縛,規(guī)避對(duì)人類(lèi)造成傷害的風(fēng)險(xiǎn)。
02制造一個(gè)道德機(jī)器
“也許我們所有人都應(yīng)該暫停片刻,把我們的研究重點(diǎn)從提升AI能力轉(zhuǎn)移到最大化AI的社會(huì)效益上面?!薄返俜摇せ艚?/p>
拋開(kāi)AI擁有人心或靈魂的科幻思辨,目前它們的思維活動(dòng)仍然無(wú)法做到像人類(lèi)那樣有彈性,所以,讓AI學(xué)習(xí)的道德倫理,也必須盡可能采用簡(jiǎn)潔直接的方式
比如,做選擇題。
什么選擇題?在出現(xiàn)價(jià)值沖突時(shí),選擇符合社會(huì)效益的一方。
當(dāng)工廠發(fā)生火災(zāi)時(shí),用于保護(hù)公司財(cái)產(chǎn)的服務(wù)機(jī)器人會(huì)面臨:
A.搶救公司財(cái)產(chǎn)(原最高指令)
B.營(yíng)救被困工人(道德)
而接受道德倫理引導(dǎo)的機(jī)器人會(huì)選擇B。
讓機(jī)器做選擇題是一個(gè)繁瑣的過(guò)程,因?yàn)閮r(jià)值沖突出現(xiàn)在不同的人類(lèi)活動(dòng)中,衍生出不可計(jì)數(shù)的抉擇,我們能做的,就是在AI的實(shí)踐中發(fā)現(xiàn)這些沖突,并從倫理的角度設(shè)置原則
按美國(guó)耶魯大學(xué)教授溫德?tīng)枴ね呃蘸驼J(rèn)知哲學(xué)家科林·艾倫2008年年合著《道德機(jī)器:如何讓機(jī)器人明辨是非》一書(shū)中的觀點(diǎn),這是一種自上而下的道德倫理養(yǎng)成,即把人類(lèi)已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進(jìn)去,驅(qū)動(dòng)決策。
再比如,設(shè)定“基本道德”。
除了具體決策原則,AI還應(yīng)具有一個(gè)宏觀的程式,以盡可能在沒(méi)有針對(duì)陌生場(chǎng)景時(shí),做出正確選擇。
還是要提到“機(jī)器人三定律”——
1.機(jī)器人不得傷害人類(lèi),或看到人類(lèi)受到傷害而袖手旁觀;
2.在不違反第一定律的前提下,機(jī)器人必須絕對(duì)服從人類(lèi)給與的任何命令;
3.在不違反第一定律和第二定律的前提下,機(jī)器人必須盡力保護(hù)自己。
很多人認(rèn)為三定律是紙面上的一套原則,但阿西莫夫在書(shū)中為其設(shè)置了很?chē)?yán)謹(jǐn)?shù)膱?zhí)行方案,根據(jù)《機(jī)器人短篇全集》中的敘述,三原則被放入機(jī)器人內(nèi)置的“機(jī)器道德調(diào)節(jié)器”——將道德規(guī)范直接嵌入AI的編碼底層,通過(guò)技術(shù)手段實(shí)現(xiàn)對(duì)AI倫理的規(guī)范。
感謝阿西莫夫,雖然源于幻想,但基于AI遵循邏輯的特性而設(shè)置的這套定律,成為了學(xué)界在進(jìn)行AI倫理研究時(shí)的重要參考。
機(jī)器人三定律的意義是提出了一個(gè)AI的道德思路:即人的生命>客觀任務(wù)>機(jī)器自身,借此保證AI對(duì)社會(huì)效益做出貢獻(xiàn),而不是失控后對(duì)人類(lèi)的未來(lái)發(fā)展產(chǎn)生威脅。
03挑戰(zhàn),更多的挑戰(zhàn)
不可否認(rèn)的是,即使有方向,有計(jì)劃,人類(lèi)在AI的道德倫理培養(yǎng)上仍然道阻且長(zhǎng)。
首先,人類(lèi)自身的道德倫理體系尚未成熟.
雖然人類(lèi)文明已走過(guò)數(shù)千年,但在道德和倫理上,我們至今沒(méi)有形成普世的,明確的標(biāo)準(zhǔn)。目前被大家所承認(rèn)的,還是一些符合多數(shù)派的大體原則。在自身尚不成熟的情況下,對(duì)AI進(jìn)行道德倫理的設(shè)計(jì)時(shí)必將遭遇分歧。
除了道德設(shè)計(jì),分歧還將延續(xù)到對(duì)AI造成的事故/罪案的審判中,集中在兩個(gè)問(wèn)題:
如何問(wèn)責(zé)?比如Uber無(wú)人車(chē)肇事案,除了駕駛系統(tǒng)和安全員外,開(kāi)發(fā)系統(tǒng)的程序員、汽車(chē)測(cè)試負(fù)責(zé)人、車(chē)載感應(yīng)設(shè)備的供應(yīng)商是否都有不可推卸的責(zé)任?在缺乏明確的法律和道德條約的前提下,每一方都會(huì)站在自己的立場(chǎng)去解釋。
由AI擔(dān)責(zé)時(shí),如何裁定?AI的行為可以具有和人一樣的效力,即AI是否按自我決策做出行動(dòng)?如果確定AI擔(dān)責(zé),那么依據(jù)何種條約來(lái)定罪,是人類(lèi)的法律條文,亦或是AI的道德倫理原則?在這些論題上,不同道德基準(zhǔn)的不同群體也會(huì)爭(zhēng)論不止。
其次,價(jià)值沖突的兩難決策不可規(guī)避。
前文我們提到,在價(jià)值沖突中,AI應(yīng)優(yōu)先保護(hù)生命。
但如果是像“電車(chē)難題”那樣,兩邊都是生命時(shí)?AI要如何取舍“小我”和“大我”?
救5人還是救1人?
在AI的道德基準(zhǔn)仍然由人類(lèi)設(shè)定的前提下,這些兩難情況下的判斷離不開(kāi)人類(lèi)的影響。
但正如第一個(gè)挑戰(zhàn)指出的,人類(lèi)自身的道德倫理標(biāo)準(zhǔn)是不統(tǒng)一的。
根據(jù)麻省理工學(xué)院在2018年10月發(fā)表在《自然》雜志的論文,把“電車(chē)難題”放入自動(dòng)駕駛場(chǎng)景,設(shè)計(jì)突發(fā)情況下無(wú)人車(chē)面對(duì)不同生命如何選擇的問(wèn)題。并通過(guò)研究團(tuán)隊(duì)開(kāi)發(fā)的“道德機(jī)器”征集200多個(gè)國(guó)家,200多萬(wàn)在線參與者的意見(jiàn)。
結(jié)果,參與者的答案顯示出了多種不同傾向,有的傾向于保護(hù)多數(shù)人和年輕人,有的則傾向保護(hù)老人,甚至有的更愿意選擇保護(hù)動(dòng)物!
可以看出,如果這些傾向中的一種被作為原則編入AI的程序,那么必將大范圍的在各類(lèi)兩難抉擇中,放大該群體的價(jià)值判斷。而這對(duì)于被忽視的弱勢(shì)一方又勢(shì)必是不公平的。
最后,機(jī)器學(xué)習(xí)有產(chǎn)生偏見(jiàn)的風(fēng)險(xiǎn)。
像人類(lèi)一樣,掌握了機(jī)器學(xué)習(xí)能力的AI也不會(huì)始終理性客觀。
以人臉識(shí)別為例,去年2月《紐約時(shí)報(bào)》就指出針對(duì)不同種族的人臉識(shí)別,準(zhǔn)確率存在巨大差異。同樣,亞馬遜的AI雇員系統(tǒng)在對(duì)員工簡(jiǎn)歷進(jìn)行學(xué)習(xí)后,在打分工作中對(duì)女性的分?jǐn)?shù)都會(huì)偏低。這是因?yàn)橄到y(tǒng)在學(xué)習(xí)外貌和性別等特征數(shù)據(jù)時(shí),產(chǎn)生了“偏見(jiàn)”。
AI的算法會(huì)對(duì)人類(lèi)輸入數(shù)據(jù)的頻率以及偏好進(jìn)行放大,并逐漸形成既定的認(rèn)知,更為頭痛的是,和人類(lèi)會(huì)有意識(shí)地去抵制偏見(jiàn)不同,AI只會(huì)不斷加深自己所學(xué)到的“偏見(jiàn)”
綜上,當(dāng)AI如人腦一般復(fù)雜時(shí),即使有著程序和道德約束裝置的存在,我們?nèi)詿o(wú)法100%保證AI會(huì)成為一個(gè)理想的道德楷模。
即便如此,AI擁有道德意識(shí)仍然是必要的。因?yàn)椤?/p>
04成熟的AI必將承擔(dān)責(zé)任
人類(lèi)的法律中經(jīng)常會(huì)提到的一個(gè)概念是“刑事能力”,即行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任所必須具備的刑法意義上辨認(rèn)和控制自己行為的能力。
而為AI賦予道德倫理的意義之一,就是讓AI具有自己的“刑事能力”,當(dāng)AI造成事故甚至是犯罪時(shí),有依據(jù)證明其行為經(jīng)過(guò)了道德選擇與決策,并據(jù)此進(jìn)行對(duì)AI本身或其開(kāi)發(fā)者的追責(zé),即“承擔(dān)責(zé)任”。
而對(duì)于AI道德倫理培養(yǎng)中遇到的問(wèn)題,人類(lèi)也正在采取更加靈活的解決方式。
除了自上而下的灌輸,瓦拉赫和艾倫還在《道德機(jī)器》中提到的,自下而上的,通過(guò)數(shù)據(jù)驅(qū)動(dòng),AI自行對(duì)道德與倫理問(wèn)題進(jìn)行思辨,實(shí)現(xiàn)意識(shí)的進(jìn)化;或者采用混合進(jìn)路系統(tǒng),即將人工輸入指令與AI自主學(xué)習(xí)結(jié)合起來(lái),讓AI在普世價(jià)值規(guī)范的基礎(chǔ)上,與人類(lèi)針對(duì)微觀的抉擇難題進(jìn)行互動(dòng),不斷完善其道德倫理系統(tǒng)。
但歸根結(jié)底,作為AI的創(chuàng)造者,一切還是要回歸于人。
人類(lèi)不能期望將所有的事都一攬子扔給AI去解決,畢竟,負(fù)責(zé)任的AI,離不開(kāi)在道德倫理的完善上負(fù)起責(zé)任的人類(lèi)。
-
AI
+關(guān)注
關(guān)注
87文章
29395瀏覽量
267689 -
Uber
+關(guān)注
關(guān)注
0文章
410瀏覽量
36176
原文標(biāo)題:Uber無(wú)人車(chē)致死案宣判,有道德的AI離我們有多遠(yuǎn)?
文章出處:【微信號(hào):Deep_Learning-2018,微信公眾號(hào):深度學(xué)習(xí)和機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論