德國創(chuàng)新創(chuàng)業(yè)協(xié)會會長胡海濤第一財經(jīng)記者表示:“應(yīng)該嚴(yán)密保護(hù)個人數(shù)據(jù),我們的企業(yè)家協(xié)會主要從事醫(yī)學(xué)和生物醫(yī)學(xué)AI研究,如果缺乏保護(hù)個人數(shù)據(jù),不僅會導(dǎo)致客戶個人社會形象受損,甚至可能影響職業(yè)生涯;如果是公眾人物,潛在的風(fēng)險是不可估量的。”
在大數(shù)據(jù)和云計算的幫助下,加強對“個人數(shù)據(jù)”的保護(hù),近兩年來人工智能再次在時代的浪潮中,成為一個不容忽視的熱點。然而,與此同時,人工智能帶來的各種社會問題也逐漸浮出水面。
2018年3月17日,據(jù)國外媒體透露,英國政治咨詢公司劍橋分析沒有在臉書(Facebook),公司同意情況下,并且未告知實情的同時,通過一種問答應(yīng)用軟件竊取了至少8700萬Facebook用戶的數(shù)據(jù),然后這些數(shù)據(jù)賣給了特朗普的競選團(tuán)隊,使其于2016年的總統(tǒng)大選中獲得準(zhǔn)確的信息投放給Facebook用戶,最終贏得了選舉。
事實上,只有少數(shù)用戶真正使用這個問答應(yīng)用,但由于facebook數(shù)據(jù)管理的一個缺陷,劍橋分析公司不僅可以訪問所有用戶的數(shù)據(jù),還可以訪問他們所有facebook好友的數(shù)據(jù),盡管他們從未使用過這個應(yīng)用。
這幾乎算是2018年曝光的范圍最大的數(shù)據(jù)丑聞,臉書公司的市值在丑聞曝光后至今已跌去了近40%,但這只是冰山一角。用戶的數(shù)據(jù)是有價值的,因為它可以被人工智能系統(tǒng)分析來監(jiān)控一切,從購物習(xí)慣到個人興趣,甚至政治傾向。
這使得互聯(lián)網(wǎng)巨頭很容易利用人工智能向用戶推送他們可能感興趣的項目和廣告,如果數(shù)據(jù)被泄露并用于非法目的,可能會帶來災(zāi)難性的后果?,F(xiàn)時迫切需要規(guī)管個人資料的收集、處理及儲存方式,而歐盟已率先采取措施保障個人資料。
2018年5月25日,歐盟《通用數(shù)據(jù)保護(hù)條例》正式生效。為了保證新法規(guī)的實施,獨立的監(jiān)管機構(gòu)歐洲數(shù)據(jù)保護(hù)委員會(European data protection commission)于同一天正式成立。
該法規(guī)被認(rèn)為是歷史上最嚴(yán)格的個人數(shù)據(jù)保護(hù)條例,不僅大大擴展了“個人數(shù)據(jù)”的定義,除了名字,電話號碼、用戶名、IP地址和其他一般信息,健康數(shù)據(jù),宗教,政治觀點,包括性取向也劃入等敏感信息保護(hù)的范圍,以及用戶可以決定企業(yè)是否獲得他們的個人信息,并允許使用范圍,并可以要求公司刪除保存的信息。
該規(guī)定不僅適用于在歐盟注冊或總部設(shè)在歐盟的公司,也適用于提供產(chǎn)品、服務(wù)或持有或處理歐盟用戶數(shù)據(jù)的公司。任何違反收集和使用個人信息基本原則、未能保護(hù)數(shù)據(jù)主體權(quán)利的公司,都可能被處以最高2000萬歐元(合全球營業(yè)額的4%)的罰款。
受這些規(guī)定影響最大的是持有大量用戶數(shù)據(jù)的互聯(lián)網(wǎng)巨頭。2018年11月下旬,很多個歐洲國家的消費者團(tuán)體對谷歌提起訴訟,指控其違反歐盟數(shù)據(jù)保護(hù)規(guī)定,秘密追蹤數(shù)百萬用戶的移動位置。谷歌可能面臨巨額罰款。
2018年12月中旬,歐洲監(jiān)管機構(gòu)宣布,facebook將因未能保護(hù)用戶隱私而接受調(diào)查,這意味著該公司可能面臨高達(dá)數(shù)十億美元的罰款。
在舊金山舉行的阿斯彭互聯(lián)網(wǎng)峰會上,德克薩斯州議會代表兼眾議院監(jiān)督與政府改革委員會主席赫德(Will Hurd)表示,未來美國可能會出臺一項類似GDPR的數(shù)據(jù)監(jiān)管法案。
赫德說,雖然一年前大多數(shù)美國人可能不會同意這一點,但2018年發(fā)生的一系列數(shù)據(jù)泄露事件已經(jīng)完全改變了這一點。
谷歌CEO:擔(dān)心AI技術(shù)被濫用于非法途徑是可以理解的。除了保護(hù)個人資料外,針對人工智能的算法偏見也是一個需要解決的問題。消除人們之間存在的各種偏見是困難的,但通常個人的影響是有限的,不會給社會帶來嚴(yán)重的后果。然而,如果人工智能算法含有偏見,一旦被廣泛使用,負(fù)面影響將難以衡量。
2018年10月中旬,亞馬遜關(guān)閉了(實驗性的)人工智能招聘引擎,該引擎原本是為求職者的簡歷打分,然后把得分高的人的簡歷推到負(fù)責(zé)招聘的人力資源部門,而得分低的人的簡歷則被淘汰。
但在實踐中,開發(fā)人員發(fā)現(xiàn)人工智能對“女性”求職者存在偏見。如果單詞“女性”出現(xiàn)在特定的上下文中,它可能會自動降級。
這不是開發(fā)者故意設(shè)計的、待有偏見的內(nèi)容,而是人工智能從公司歷史上海量的求職和招聘數(shù)據(jù)中得出的一個模型。作為一家科技公司,亞馬遜約60%的員工是男性,男性求職者遠(yuǎn)多于女性。隨著人工智能的應(yīng)用日益廣泛,如何保證人工智能算法的公平性、公正性和安全性成為當(dāng)務(wù)之急。
特別是在無人駕駛、醫(yī)療診斷、法律咨詢等社會影響較深的領(lǐng)域,算法偏見帶來的負(fù)面影響該由誰來負(fù)責(zé)?
從理論上講,避免算法偏差的前提是保證算法的輸入數(shù)據(jù)不存在任何偏見。然而,實際情況要復(fù)雜得多。例如,任何數(shù)據(jù)源都是有限的。假如源頭本身的數(shù)據(jù)就不完全客觀,結(jié)果會導(dǎo)致這種偏見自然而然地遺傳給算法。
胡海濤在接受《第一財經(jīng)日報》的記者采訪時表示:“當(dāng)我們不能對不同的AI算法進(jìn)行客觀唯一的評價之時,增加AI算法的透明性、開放度及對AI算法的審議機制,是人類目前階段最明智的選擇。人工智能算法應(yīng)該保證公平、公正、公開,沒有暗箱操作的,只有這樣,它的參考結(jié)果才有說服力。人工智能應(yīng)該幫助人類做出更好的決定,而不是為人類做出決定?!?/p>
近年來流行起來的人工智能自動駕駛技術(shù)就是最好的例子。早在2017年,美國眾議院就通過了加速推廣自動駕駛汽車的相關(guān)計劃,但該法案尚未得到參議院的批準(zhǔn)。
2018年12月19日,美國參議員再次拒絕在2018年年底休會前對該法案進(jìn)行的投票。盡管企業(yè)做出了讓步,該法案還是遭到了一些民主黨人的反對,他們認(rèn)為自動駕駛技術(shù)尚未能解決安全問題。
谷歌首席執(zhí)行官Stephen Pichai在12月中旬告訴媒體,對濫用人工智能技術(shù)的擔(dān)憂是“非常合理的”。他說,新的人工智能工具,如無人駕駛汽車和疾病檢測算法,都應(yīng)該置道德護(hù)欄,并考慮什么是濫用這項技術(shù)?!拔艺J(rèn)為科技公司必須意識到不能先創(chuàng)造人工智能工具,然后再去完善它,這樣是行不通的。”
埃森哲應(yīng)用情報部門董事總經(jīng)理喬杜里還說,他預(yù)計未來一年全球?qū)⒊霈F(xiàn)更多的政府審查和技術(shù)監(jiān)督。她說:“人工智能和全球科技巨頭所掌握的權(quán)力引發(fā)了許多關(guān)于如何監(jiān)管行業(yè)和技術(shù)的問題,2019年我們將繼續(xù)尋找這些問題的答案?!?/p>
評論
查看更多