0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能的算法黑箱與大數(shù)據(jù)的正義

bzSh_drc_iite ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-20 14:53 ? 次閱讀

人工智能算法依賴于大數(shù)據(jù),而大數(shù)據(jù)并非中立。它們從真實社會中抽取,必然帶有社會固有的不平等、排斥性和歧視的痕跡。

一個月前,《終極算法》作者、人工智能著名學(xué)者、華盛頓大學(xué)教授 Pedro Domingos 在社交網(wǎng)絡(luò)中寫道:“自 5 月 25 日起,歐盟將會要求所有算法解釋其輸出原理,這意味著深度學(xué)習(xí)成為非法的方式。”一石激起千層浪。人們不禁要問:歐盟為何出臺這個法規(guī)?以深度學(xué)習(xí)為核心的人工智能真的會遭遇重大挫折嗎?中國應(yīng)當(dāng)借鑒并仿效嗎?

利用人工智能的自動化決定

盡管真正擁有知覺和自我意識的“強人工智能”仍屬幻想,但專注于特定功能的“弱人工智能”早如雨后春筍般涌現(xiàn)。在萬物互聯(lián)的背景下,以云計算為用,以個人數(shù)據(jù)為體,以機器學(xué)習(xí)為魂的智能應(yīng)用已經(jīng)“潤物細(xì)無聲”。

從今日頭條的個性化推送到螞蟻金服的芝麻信用評分,從京東的“奶爸當(dāng)家指數(shù)”到某旅游網(wǎng)站用大數(shù)據(jù)“殺熟”,個人信息自動化分析深嵌入到我們?nèi)粘I钪?。在法律上,我們稱之為“基于個人信息的自動化決定”。簡單來說,就是通過自動化的數(shù)據(jù)處理,評估、分析及預(yù)測個人的工作表現(xiàn)、經(jīng)濟狀況、位置、健康狀況、個人偏好、可信賴度或者行為表現(xiàn),進而利用這種“數(shù)據(jù)畫像”(profiling),在不同的業(yè)務(wù)場景中做出有關(guān)數(shù)據(jù)主體的各項決定。

人工智能的自動化決定一方面可以給我們帶來便利,比如智能投顧或智能醫(yī)療;但另一方面,它絕非完美無缺,它不僅可能出錯,甚至還可能存在“惡意”。

美國馬薩諸塞州的居民John Gass便深受其害。聯(lián)邦調(diào)查局的反恐識別系統(tǒng)將他誤認(rèn)為是另一位司機,并吊銷了他的駕駛執(zhí)照,于是,他不得不費時費力,讓當(dāng)局相信他不是那名司機。其實,John Cass已經(jīng)非常幸運。在美國,每周超過1000人被機場使用的算法錯誤地標(biāo)記為***。一名美國航空公司的飛行員在一年中被拘留了80次,因為他的名字與愛爾蘭共和軍領(lǐng)導(dǎo)人的名字相似。這還不算是最糟糕的。

人工智能的算法依賴于大數(shù)據(jù),而大數(shù)據(jù)并非中立。它們從真實社會中抽取,必然帶有社會固有的不平等、排斥性和歧視的痕跡。例如,為了在Twitter上與千禧一代進行對話,微軟開發(fā)了Tay聊天機器人,它旨在學(xué)習(xí)如何通過復(fù)制網(wǎng)民的語音來模仿他人??蓛H僅在試用24小時后,它就被引入歧途,成為支持種族滅絕的反女權(quán)主義的納粹分子,以至于發(fā)出了“希特勒無罪”的消息。更有甚者,美國法院用以評估犯罪風(fēng)險的算法COMPAS,亦被證明對黑人造成了系統(tǒng)性歧視。

無論是程序錯誤,還是算法歧視,在人工智能的前沿領(lǐng)域——深度學(xué)習(xí)中,都變得難以識別。

華盛頓特區(qū)的Sarah Wysocki是一位被普遍認(rèn)可的老師,但當(dāng)2009年政府用一個自動化決定程序來評價教師表現(xiàn)時,她和其他205人因得分不佳被解雇。據(jù)稱,該決定以少數(shù)學(xué)生的成績?yōu)橐罁?jù),可學(xué)校始終無法解釋為何優(yōu)秀教師會落得如此下場。

華盛頓學(xué)校的難題有著深層次原因。與傳統(tǒng)機器學(xué)習(xí)不同,深度學(xué)習(xí)并不遵循數(shù)據(jù)輸入、特征提取、特征選擇、邏輯推理、預(yù)測的過程,而是由計算機直接從事物原始特征出發(fā),自動學(xué)習(xí)和生成高級的認(rèn)知結(jié)果。

在人工智能輸入的數(shù)據(jù)和其輸出的答案之間,存在著我們無法洞悉的“隱層”,它被稱為“黑箱”(black box)。這里的“黑箱”并不只意味著不能觀察,還意味著即使計算機試圖向我們解釋,我們也無法理解。哥倫比亞大學(xué)的機器人學(xué)家 Hod Lipson把這一困境形象地描述為“這就像是向一條狗解釋莎士比亞是誰。”

《統(tǒng)一數(shù)據(jù)保護條例》的應(yīng)對

正是因為人工智能的自動化決定對個人權(quán)利的重大影響,將于2018年5月25日生效的歐盟《統(tǒng)一數(shù)據(jù)保護條例》(GDRR)在1995年《數(shù)據(jù)保護指令》(Directive 95/46/EC)的基礎(chǔ)上,進一步強化了對自然人數(shù)據(jù)的保護。

首先,尊重個人的選擇權(quán)。當(dāng)自動化決定將對個人產(chǎn)生法律上的后果或類似效果時,除非當(dāng)事人明確同意,或者對于當(dāng)事人間合同的達(dá)成和履行來說必不可少,否則,個人均有權(quán)不受相關(guān)決定的限制。

其次,將個人敏感數(shù)據(jù)排除在人工智能的自動化決定之外。根據(jù)《統(tǒng)一數(shù)據(jù)保護條例》第9(1)條,“敏感數(shù)據(jù)”即有關(guān)種族、政治傾向、宗教信仰、健康、性生活、性取向的數(shù)據(jù),或者可唯一性識別自然人的基因數(shù)據(jù)、生物數(shù)據(jù)。由于這些數(shù)據(jù)一旦遭到泄露、修改或不當(dāng)利用,就會對個人造成不良影響,因此,歐盟一律禁止自動化處理,即使當(dāng)事人同意亦是如是,只有在明確的法律規(guī)定時才存在例外。

再次,增加數(shù)據(jù)使用者在個人數(shù)據(jù)收集時的透明度。根據(jù)《統(tǒng)一數(shù)據(jù)保護條例》第13條(f)和第14條(g),如果個人數(shù)據(jù)將用于自動化決定,那么至少應(yīng)當(dāng)向個人提供相關(guān)決定的重要性、對個人預(yù)期的影響以及有關(guān)運算邏輯的“有用信息”。

比如,在銀行收集個人數(shù)據(jù)時,應(yīng)當(dāng)告知其可能使用人工智能對貸款人資質(zhì)進行審核,而審核的最壞結(jié)果(如不批貸)也應(yīng)一并披露。此外,由于我們都不是技術(shù)專家,因此,這里的“有用信息”不但應(yīng)淺顯易懂,為每個人理解,而且要有助于每個人主張自己在《統(tǒng)一數(shù)據(jù)保護條例》或其他法律下的權(quán)利。還是以貸款審核為例,當(dāng)我們覺得被不公正對待時,銀行提供的信息就應(yīng)當(dāng)成為法院審理的重要依據(jù)。

最后,如果個人對自動化決定不滿,則有權(quán)主張人工介入,以表達(dá)自己的觀點并提出質(zhì)疑。這一規(guī)定和上述透明度要求相結(jié)合,產(chǎn)生了針對人工智能的所謂“解釋權(quán)”,而這正是Pedro Domingos的擔(dān)憂所在??紤]到算法黑箱,深度學(xué)習(xí)的合法化似乎是個無解的問題。

但事實上,這可能是個誤解。一方面,“有用信息”的提供是在收集數(shù)據(jù)之時,而非做出自動化決定之后,其意味著個人僅僅概括地了解系統(tǒng)的一般原則即可,并不需要徹底把握某項具體決定的邏輯;另一方面,法律所看重的是“可理解”(explainable),而不是“可闡釋(interpretable)。換言之,它不關(guān)注人工智能內(nèi)部究竟如何運作,而只關(guān)心輸入數(shù)據(jù)和輸出結(jié)果的關(guān)聯(lián)關(guān)系。

在加州大學(xué)伯克利分校發(fā)布的《人工智能的系統(tǒng)挑戰(zhàn):一個伯克利的觀點》(A Berkeley View of Systems Challenges for AI)中,這種關(guān)聯(lián)性被稱“反事實問題”測試。在個人被拒絕貸款的例子中,人工智能系統(tǒng)必須能否回答如果諸如“我不是女性,是不是就能批貸?”“如果我不是小企業(yè)主,是不是就能批貸”這樣的問題。因而數(shù)據(jù)使用者有義務(wù)建構(gòu)出一套具有交互診斷分析能力的系統(tǒng),通過檢視輸入數(shù)據(jù)和重現(xiàn)執(zhí)行過程,來化解人們的質(zhì)疑。這才是“人工介入”的真實含義。

將數(shù)據(jù)正義引入中國

數(shù)據(jù)是數(shù)字經(jīng)濟的關(guān)鍵生產(chǎn)要素,人工智能是數(shù)字經(jīng)濟的關(guān)鍵產(chǎn)業(yè)支柱。如何在發(fā)掘數(shù)據(jù)的經(jīng)濟價值、發(fā)展人工智能的同時,保障個人的權(quán)利和自由,依然是數(shù)字社會的未解難題。

當(dāng)前,我國尚無《個人信息保護法》,在不久前出臺的《個人信息安全規(guī)范》中,第7.10條“約束信息系統(tǒng)自動決策”也只是賦予了個人提出申請的程序性權(quán)利,并不涉及實質(zhì)約束。

無獨有偶,中國電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)布的《人工智能標(biāo)準(zhǔn)化白皮書》雖然已關(guān)注到人工智能的倫理和隱私問題,但著墨不多,因過于原則而難以實施。就此而言,《統(tǒng)一數(shù)據(jù)保護條例》可成為我國可資借鑒的他山之石。它不僅僅提供了一系列具象的法律規(guī)則,更重要的是它在“數(shù)據(jù)效率”之外,傳遞出“數(shù)據(jù)正義”(data justice)的理念。

盡管作為一個發(fā)展中的理念,數(shù)據(jù)正義的含義遠(yuǎn)未定型,但“反數(shù)據(jù)歧視”和“數(shù)據(jù)透明”必然是題中之意。在數(shù)字化生存的今天,不管是“社會人”還是“經(jīng)濟人”,都首先是“數(shù)字人”。

現(xiàn)實空間的我們被數(shù)據(jù)所記載、所表達(dá)、所模擬、所處理、所預(yù)測,現(xiàn)實空間的歧視也是如此。從求職歧視到消費歧視和司法歧視,數(shù)據(jù)歧視前所未有地制度化和系統(tǒng)化。基于此,法律首先要做的就是規(guī)定更加小心和負(fù)責(zé)地收集、使用、共享可能導(dǎo)致歧視的任何敏感數(shù)據(jù),可這顯然不夠。

從大數(shù)據(jù)的相關(guān)性原理出發(fā),只是將敏感數(shù)據(jù)簡單排除并不能保證它們不被考慮。例如,若特定區(qū)域的人有著大量的低收入群體或少數(shù)族裔,那么區(qū)域的地理數(shù)據(jù)就可以代替收入或種族數(shù)據(jù),用作歧視工具。所以,要識別和挑戰(zhàn)數(shù)據(jù)應(yīng)用中的歧視和偏見,“數(shù)據(jù)透明”就不可或缺。換言之,它要求在數(shù)據(jù)生產(chǎn)和處理日趨復(fù)雜的形勢下,增強個人的知情權(quán),從而修復(fù)信息的對稱性。

凱文·凱利

關(guān)于這一點,凱文?凱利所講的老婆婆故事是一個絕佳的例子。在故事里,你住在一個小城鎮(zhèn),你的鄰居老婆婆知道你的一切動向和行蹤,但你可能不會覺得被冒犯,因為你不在家的時候,老婆婆會幫你看家;更重要的是,你了解關(guān)于老婆婆的一切。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46401

    瀏覽量

    236644
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8838

    瀏覽量

    137145

原文標(biāo)題:人工智能的算法黑箱與數(shù)據(jù)正義

文章出處:【微信號:drc_iite,微信公眾號:全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    、優(yōu)化等方面的應(yīng)用有了更清晰的認(rèn)識。特別是書中提到的基于大數(shù)據(jù)和機器學(xué)習(xí)的能源管理系統(tǒng),通過實時監(jiān)測和分析能源數(shù)據(jù),實現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    閱讀這一章后,我深感人工智能與生命科學(xué)的結(jié)合正引領(lǐng)著一場前所未有的科學(xué)革命,以下是我個人的讀后感: 1. 技術(shù)革新與生命科學(xué)進步 這一章詳細(xì)闡述了人工智能如何通過其強大的數(shù)據(jù)處理和分析能力,加速生命科學(xué)
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,還促進了新理論、新技術(shù)的誕生。 3. 挑戰(zhàn)與機遇并存 盡管人工智能為科學(xué)創(chuàng)新帶來了巨大潛力,但第一章也誠實地討論了伴隨而來的挑戰(zhàn)。數(shù)據(jù)隱私、算法偏見、倫理道德等問題不容忽視。如何在利用AI提升科研效率
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V在人工智能圖像處理領(lǐng)域的應(yīng)用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點。以下是對RISC-V在人工智能圖像處理應(yīng)用前景的詳細(xì)分析: 一、RISC-V的基本特點 RISC-V
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    大力發(fā)展AI for Science的原因。 第2章從科學(xué)研究底層的理論模式與主要困境,以及人工智能三要素(數(shù)據(jù)、算法、算力)出發(fā),對AI for Science的技術(shù)支撐進行解讀。 第3章介紹了在
    發(fā)表于 09-09 13:54

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    科達(dá)嘉電感器在大數(shù)據(jù)人工智能領(lǐng)域被廣泛應(yīng)用

    近年來,大數(shù)據(jù)人工智能成為科技領(lǐng)域的熱門話題。大數(shù)據(jù)人工智能提供了大量的數(shù)據(jù)作為輸入,使得人工智能算
    的頭像 發(fā)表于 02-29 13:56 ?433次閱讀

    為何電感器對于大數(shù)據(jù)人工智能產(chǎn)業(yè)發(fā)展至關(guān)重要

    電感器作為智能設(shè)備電路中的重要元件,已經(jīng)成為推動大數(shù)據(jù)智能產(chǎn)業(yè)發(fā)展與革新的基礎(chǔ)技術(shù)??七_(dá)嘉通過技術(shù)創(chuàng)新,為大數(shù)據(jù)人工智能領(lǐng)域提供高可靠的
    的頭像 發(fā)表于 02-28 14:48 ?399次閱讀
    為何電感器對于<b class='flag-5'>大數(shù)據(jù)</b>及<b class='flag-5'>人工智能</b>產(chǎn)業(yè)發(fā)展至關(guān)重要

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    科達(dá)嘉電感器廣泛應(yīng)用于大數(shù)據(jù)人工智能領(lǐng)域為AI賦能

    近年來,大數(shù)據(jù)人工智能成為科技領(lǐng)域的熱門話題。大數(shù)據(jù)人工智能提供了大量的數(shù)據(jù)作為輸入,使得人工智能算
    的頭像 發(fā)表于 02-23 17:29 ?772次閱讀

    正義籌集千億美元,欲挑戰(zhàn)英偉達(dá),進軍人工智能芯片市場?

    關(guān)于該項目資助來源以及具體的投資方向仍未最終確定。在此過程中,孫正義始終在尋找擴大Arm在人工智能市場影響力的機會,探索各種先進的芯片研發(fā)技術(shù)。盡管尚未明確哪家公司將承擔(dān)主要責(zé)任,以應(yīng)對英偉達(dá)這個高端人工智能加速器領(lǐng)域的領(lǐng)軍者
    的頭像 發(fā)表于 02-18 09:41 ?490次閱讀

    人工智能在兵棋推演中的應(yīng)用案例分享

    人工智能黑箱效應(yīng)與推演結(jié)果可驗證之間存在矛盾。充分理解人工智能做出決策的機理,需要相當(dāng)高的專業(yè)門檻,這帶來了嚴(yán)重的黑箱效應(yīng)。
    發(fā)表于 01-10 15:53 ?454次閱讀
    <b class='flag-5'>人工智能</b>在兵棋推演中的應(yīng)用案例分享

    淺談人工智能監(jiān)管制度

    ,人工智能在提供便利的同時,也會產(chǎn)生諸如算法黑箱和信息繭房等風(fēng)險,因此,對其進行監(jiān)管十分重要。本文通過梳理歐盟、美國和英國人工智能監(jiān)管制度,來探究域外
    發(fā)表于 11-23 10:47 ?323次閱讀

    基于人工智能算法的推薦系統(tǒng)原理及優(yōu)勢

    推薦系統(tǒng)是一種人工智能人工智能算法,通常與機器學(xué)習(xí)相關(guān),使用大數(shù)據(jù)向消費者建議或推薦其他產(chǎn)品。這些推薦可以基于各種標(biāo)準(zhǔn),包括過去的購買、搜索歷史記錄、人口統(tǒng)計信息和其他因素。推薦系統(tǒng)非常有用,因為它們可以幫助用戶了解自己無法自
    發(fā)表于 11-20 11:40 ?2197次閱讀
    基于<b class='flag-5'>人工智能算法</b>的推薦系統(tǒng)原理及優(yōu)勢

    人工智能大模型、應(yīng)用場景、應(yīng)用部署教程超詳細(xì)資料

    人工智能是IC行業(yè)近幾年的熱詞,目前此技術(shù)已經(jīng)有很多成熟的模型和落地案例。在此跟大家做個分享,更多詳細(xì)資料,請自行搜索:【展銳坦克邦】,坦克邦-智算天地集算法模型、部署說明于一體,為廣大客戶提供了
    發(fā)表于 11-13 14:49