希臘、匈牙利、拉脫維亞的安全機(jī)構(gòu)正在開展一個試點(diǎn)計劃,利用基于人工智能技術(shù)的「虛擬警察」來判斷出入境旅客是否「心懷不軌」。但記者測試后卻發(fā)現(xiàn),這個「虛擬警察」好像很容易「謊報軍情」。
測試「虛擬警察」的記者來自美國調(diào)查新聞網(wǎng)站 The Intercept,他們在今年年初通過塞爾維亞-匈牙利邊境時展開了測試。記者誠實(shí)地回答了所有問題,但最后卻被「虛擬警察」判斷為說謊,在 16 道測試題中答錯了 4 道,得分為 48 分(滿分 100)。評估記者測謊結(jié)果的匈牙利警察說,系統(tǒng)建議她接受進(jìn)一步的檢查,盡管這些檢查后來并沒有進(jìn)行。
這個「虛擬警察」被稱為 Silent Talker,它是一個測謊儀,用于加強(qiáng)歐洲的邊境管理,使旅客在獲準(zhǔn)通過海關(guān)前接受測謊儀測試。
具體流程如下:
在抵達(dá)機(jī)場之前,旅客使用自己的電腦登錄一個網(wǎng)站,上傳護(hù)照照片,然后出現(xiàn)一位身穿藍(lán)色海軍制服的棕發(fā)虛擬警察。
這位虛擬警察會提出問題,比如「您姓什么?」、「您的國籍以及旅行目的是什么?」。旅客需要回答此類問題以及虛擬警察提出的其他問題,然后它會使用電腦攝像頭掃描面部和眼球運(yùn)動,以搜尋說謊的跡象。
在與虛擬警察交互的最后,系統(tǒng)提供給旅客一個二維碼,旅客需要在抵達(dá)邊境之時向警衛(wèi)出示此二維碼。然后警衛(wèi)使用手持平板設(shè)備掃描二維碼,提取指紋,重新審核虛擬警察捕捉到的面部圖像,以查看是否與護(hù)照一致。警衛(wèi)平板設(shè)備上會顯示分?jǐn)?shù)(總分 100 分),從而獲知虛擬警察對旅客是否說謊的判斷。
如果旅客被判定試圖欺騙系統(tǒng),則將其分類為「高度危險」或「中度危險」,這將取決于該旅客被發(fā)現(xiàn)問題回答錯誤的次數(shù)。
那些被認(rèn)定危險的旅客可能會被拒絕入關(guān),盡管在大多數(shù)情況下,他們無法知道虛擬警察測試在決策中是否起到了作用。此外,虛擬警察的測試結(jié)果通常不會透露給旅客。
虛擬警察的前世今生
虛擬警察是 iBorderCtrl 項(xiàng)目的產(chǎn)物,該項(xiàng)目的參與者包括匈牙利、拉脫維亞和希臘的安全機(jī)構(gòu)。目前,測謊儀測試是自愿的,實(shí)驗(yàn)計劃也將于 8 月結(jié)束。如果該計劃取得成功,歐盟其他國家可能也會展開相應(yīng)項(xiàng)目。該項(xiàng)目的發(fā)展?jié)摿σ苍跉W盟大陸引起了爭議,媒體爭相報道。
目前,歐盟的一個研究計劃已經(jīng)向 iBorderCtrl 項(xiàng)目投入了 450 萬歐元,并由 13 個合作伙伴組成的財團(tuán)進(jìn)行管理,包括希臘安全研究中心、德國漢諾威萊布尼茨大學(xué)以及匈牙利 BioSec、西班牙 Everis 和波蘭 JAS 等技術(shù)與安全公司。
IBorderCtrl 測謊系統(tǒng)是由英國曼徹斯特城市大學(xué)的研究人員開發(fā)出來的,他們表示,該技術(shù)可以在人們在電腦上回答問題時捕捉到「微姿態(tài)」,從而對面部表情、眼球運(yùn)動和姿勢進(jìn)行分析。此外,他們還認(rèn)為這種測謊系統(tǒng)代表了邊境安全的未來發(fā)展方向。
在 2018 年 6 月發(fā)表的一篇論文中,他們就表示這種虛擬警察「非常適合在入境海關(guān)對話中檢測出旅客是否說謊,因?yàn)樗軌蛴行У夭蹲降铰每突卦捴泻w的信息?!?/p>
論文地址:https://www.researchgate.net/publication/328399576_Intelligent_Deception_Detection_through_Machine_Based_Interviewing
然而,一些學(xué)者對 IBorderCtrl 測謊系統(tǒng)的價值提出了質(zhì)疑,認(rèn)為它依賴偽科學(xué)來判定旅客是否誠實(shí)。
質(zhì)疑聲不斷的測謊系統(tǒng)
測謊依據(jù)站不住腳
英國德比大學(xué)(University of Derby)刑事偵察學(xué)教授 Ray Bull 曾協(xié)助英國警方提升面談技巧,精通測謊技術(shù)。他認(rèn)為,iBorderCtrl 項(xiàng)目是「不可信的」,因?yàn)闆]有證據(jù)表明監(jiān)測人們的面部微姿態(tài)是判斷他們是否說謊的準(zhǔn)確方法。
Bull 表示:「iBorderCtrl 測謊系統(tǒng)的研發(fā)人員在欺騙大家,他們說自己這種技術(shù)非常有效,但其實(shí)浪費(fèi)了大量金錢。該技術(shù)對人們在誠實(shí)和欺騙時的行為產(chǎn)生了根本性誤解。」
技術(shù)不夠透明
IBorderCtrl 是一種輔助預(yù)篩查流程的技術(shù)。但是主張透明度的活動人士表示,在獲取更多相關(guān)技術(shù)信息(如決策所使用的算法)之前不應(yīng)推廣該項(xiàng)目。
今年早些時候,米蘭赫爾墨斯透明度與數(shù)字人權(quán)中心(Milan-based Hermes Center for Transparency and Digital Human Rights)的研究人員利用信息自由法獲取了 IBorderCtrl 測謊系統(tǒng)的內(nèi)部文件,包含數(shù)百頁內(nèi)容。但是,文件內(nèi)容遭到了大量的修改,并且很多頁面完全被涂抹掉了。
赫爾墨斯中心的研究人員 Riccardo Coluccini 表示:「通過隱瞞處理這些問題的文件來試圖抑制對該系統(tǒng)的討論,這種做法真是太可怕了。了解技術(shù)背后的資助流程非常有必要。這些內(nèi)部文件里到底寫了些什么?這些財團(tuán)又如何證明使用這種偽科學(xué)技術(shù)的合理性呢?」
系統(tǒng)存在種族偏見
曼徹斯特的研究人員也對 iBorderCtrl 系統(tǒng)進(jìn)行了研究,他們測試了 32 個人,結(jié)果顯示該系統(tǒng)的準(zhǔn)確率僅為 75%。但他們注意到,參與測試的人員在種族和性別上分布不均衡,其中亞裔或阿拉伯裔參與者人數(shù)少于歐洲白人,并且女性少于男性。
歐盟數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)負(fù)責(zé)人 Giovanni Buttarelli 對此表示擔(dān)憂,認(rèn)為 iBorderCtrl 系統(tǒng)可能會根據(jù)人們的種族出身而歧視他們。
iBorderCtrl 系統(tǒng)發(fā)言人拒絕回答有關(guān)種族歧視的問題。該項(xiàng)目的一個網(wǎng)站承認(rèn)「該測謊系統(tǒng)將影響到旅客的基本權(quán)利,但目前測試是自愿的,因此不會出現(xiàn)歧視、人格尊嚴(yán)等問題?!?/p>
學(xué)界對情感分析工具可靠性的質(zhì)疑
用 AI 進(jìn)行情感識別是該領(lǐng)域的一大研究熱點(diǎn),但正如上述測謊儀所揭露的一樣,這項(xiàng)技術(shù)好像并沒有那么靠譜。
近日,來自美國東北大學(xué)心理學(xué)系、加州理工學(xué)院人文社會科學(xué)院的研究者對利用 AI 技術(shù)進(jìn)行情感識別的可靠性提出了質(zhì)疑。他們對憤怒、厭惡、恐懼、快樂、悲傷和驚訝等六種最流行的情緒類別進(jìn)行了研究,指出現(xiàn)有的情感識別工具用于判斷情感類型的依據(jù)還太過簡單、寬泛,不適合大規(guī)模利用。
論文:Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements
論文鏈接:https://journals.sagepub.com/eprint/SAUES8UM69EN8TSMUGF9/full#
這份研究表明,人類情感的表達(dá)方式具有多樣性,因此僅僅根據(jù)一組面部表情來推斷情感類型很難得出可靠的結(jié)論。「數(shù)據(jù)表明,人們在生氣時只有不到 30% 的時間會皺眉,」其中一位研究者表示,「因此皺眉并不等于生氣,只是生氣的一種表現(xiàn)?!挂簿褪钦f,人們在超過 70% 的情況下生氣是不皺眉的,更重要的是,人們在不生氣時反而經(jīng)常皺眉。
此外,不同文化背景、情境下的人表達(dá)情感的方式,甚至不同的人表達(dá)同一情緒的方式也不盡相同。而且,相似的面部表情可能會表達(dá)多種情感。
當(dāng)然,這篇論文并沒有否認(rèn)典型面部表情的存在,而是反對利用面部表情進(jìn)行「可靠」的情感識別。
之前很多研究認(rèn)為某些面部表情與情緒之間存在很強(qiáng)的關(guān)聯(lián),但它們往往存在方法上的缺陷。例如,這些研究以實(shí)驗(yàn)參與者做出的夸張表情作為某種情感表現(xiàn)的研究起點(diǎn)。然后,他們要求參與測試的對象對這些表情打上標(biāo)簽,由于可選擇的表情范圍非常有限,所以迫使他們達(dá)成某種共識。
研究者表示,人類理解情緒的方式比這要復(fù)雜得多?!肝覀兩鷼獾臅r候可能會大吼大叫,可能會哭,有時還會大笑,或者只是靜靜地思考如何報復(fù)敵人」。
然而,那些銷售情感分析工具的公司卻很少考慮這些微妙之處。以微軟的算法為例,該公司表示,他們的算法可以「根據(jù)通用的面部表情識別出 8 種核心情感狀態(tài)……」這項(xiàng)研究反駁的正是這種論調(diào)。
當(dāng)然,這種批評也不是最近才提出的。論文作者及其他研究者早在數(shù)年前就開始發(fā)出警告,稱這些情感識別模型過于簡單。
面對這些質(zhì)疑,那些售賣情感分析工具的公司表示,他們的分析依據(jù)的不只是面部表情,還有很多其他信號。目前,一些比較領(lǐng)先的公司也嘗試在情感分析中加入語音、步態(tài)、眼動等信號,但難點(diǎn)在于他們是如何平衡這些信號。
這種不成熟的情感分析工具的使用也很容易被人利用。就像我們知道點(diǎn)贊某些圖片會影響我們的廣告推送一樣,我們也可以根據(jù)對這些工具的了解而刻意做出某種表情。
研究者表示,他們的研究最想表達(dá)的一點(diǎn)是,我們需要以一種更加復(fù)雜的方式來識別情感。情感的表達(dá)非常多樣、復(fù)雜而且有一定的語境。她將這種思維的轉(zhuǎn)變與達(dá)爾文的研究進(jìn)行類比,「達(dá)爾文認(rèn)識到,一個物種的生物學(xué)范疇并不是固定不變的,而是由高度變化的個體組成的?!寡芯空弑硎荆盖楦蓄I(lǐng)域也是如此?!?/p>
-
測謊儀
+關(guān)注
關(guān)注
0文章
11瀏覽量
7777 -
人工智能技術(shù)
+關(guān)注
關(guān)注
2文章
210瀏覽量
10502
原文標(biāo)題:歐盟邊檢AI測謊儀上線了,第一天就差點(diǎn)讓記者進(jìn)了小黑屋
文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論