0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探究人工智能偏見的識別和管理

Dbwd_Imgtec ? 來源:NIST ? 作者:李朦朦/賽博研究院 ? 2022-04-17 10:21 ? 次閱讀

2022年3月16日,美國國家標準與技術(shù)研究院(NIST)發(fā)布了《邁向識別和管理人工智能偏見的標準》(以下簡稱《標準》),《標準》的目的是分析人工智能偏見這一具有挑戰(zhàn)性的領(lǐng)域中有爭議的問題,并為制定識別和管理人工智能偏見的詳細社會技術(shù)指導(dǎo)提供路線圖上的第一步。NIST表示,《標準》是支持可信賴和負責任的人工智能開發(fā)的一部分,為NIST正在開發(fā)的AI風險管理框架(AI RMF)提供了相關(guān)的指導(dǎo)。

《標準》重點提出三部分內(nèi)容:

描述了人工智能中偏見的利害關(guān)系和挑戰(zhàn),并舉例說明了偏見破壞公眾信任的原因和方式;

識別人工智能中的三類偏見(即系統(tǒng)性,統(tǒng)計性和人類偏見),并描述它們對社會產(chǎn)生負面影響的方式;

描述了減輕人工智能偏見的三大挑戰(zhàn),包括數(shù)據(jù)集,測試和評估、驗證和核實以及人為因素,并對解決這些問題給出建議。

如何理解人工智能偏見

人工智能風險管理旨在最大限度地減少人工智能的負面影響,包括對公民自由和權(quán)利的威脅等。而在談?wù)撊斯ぶ悄茱L險時,“偏見”是一個重要話題。雖然人工智能偏見并不總是負面的,如通過自動化系統(tǒng)決策為公眾提供生活便利。然而,人工智能模型和系統(tǒng)中表現(xiàn)出的某些偏見也可能對個人、組織和社會造成永久化和放大的負面影響。

《標準》指出,偏見與社會透明度和公平性息息相關(guān)。對于大多數(shù)人來說,算法很少透明,因為非技術(shù)受眾很難了解和理解公司用于設(shè)計、開發(fā)和部署的代碼及用于決策的復(fù)雜人工智能網(wǎng)絡(luò)。此外,很多人受到人工智能技術(shù)和系統(tǒng)的困擾,如未經(jīng)本人的同意,在申請大學、租賃房屋甚至互聯(lián)網(wǎng)搜索時,個人數(shù)據(jù)被人工智能技術(shù)和系統(tǒng)輸入等。這些情形都導(dǎo)致個人對“失控”和“失去隱私”的恐懼,以及對人工智能的信任下降。

人工智能偏見的類別

《標準》中,人工智能分為系統(tǒng)性偏見、統(tǒng)計性偏見和人類偏見三大類別,具體來看:

系統(tǒng)性偏見

系統(tǒng)性偏見,也被稱為機構(gòu)或歷史偏見,是由特定機構(gòu)的程序和做法造成,導(dǎo)致某些社會群體處于有利地位或受到青睞,而其他社會群體則處于不利地位或受到貶低。它們普遍存在于人工智能使用的數(shù)據(jù),人工智能生命周期的流程中以及文化和社會中的機構(gòu)規(guī)范、實踐和流程中。這不一定是有意識偏見或歧視,而是大多數(shù)人遵循現(xiàn)有規(guī)則或規(guī)范造成的。最為典型的是種族主義和性別歧視,在日?;A(chǔ)設(shè)施中未能考慮殘疾人的無障礙環(huán)境等。

統(tǒng)計性偏見

統(tǒng)計性偏見來自于系統(tǒng)性錯誤而非隨機性錯誤,在沒有偏見、偏袒或歧視性意圖的情況下也會發(fā)生。在人工智能系統(tǒng)中,這些偏見存在于開發(fā)人工智能應(yīng)用的數(shù)據(jù)集和算法過程中,當算法在一種類型的數(shù)據(jù)上訓練而不能超越這些數(shù)據(jù)進行推斷時,偏見就會出現(xiàn)。

人類偏見

人類偏見是人類思維的基本部分,反映了人類思維中的系統(tǒng)性錯誤。此類偏見往往是隱性的,并與個人或群體通過自動化信息進行決策有關(guān),廣泛存在于整個人工智能生命周期的機構(gòu)、團體和個人決策過程中,以及在人工智能應(yīng)用部署后的使用過程中。

fe9ed3c8-bbd5-11ec-aa7f-dac502259ad0.png

人工智能偏見對社會的影響

由于人工智能技術(shù)與社會緊密聯(lián)系,其相比傳統(tǒng)技術(shù)對社會的影響更大。各個部門都普遍部署人工智能的應(yīng)用程序用于決策支持,從而代替人類做出具有高度影響力的決策。但目前,對這些應(yīng)用程序的負面影響和其他結(jié)果進行驗證的方法并不精確,也不全面。

雖然機器學習(ML)系統(tǒng)能夠?qū)?fù)雜的現(xiàn)象進行建模,但其是否能夠按照人類的社會價值觀進行學習和操作,仍值得關(guān)注。系統(tǒng)性偏見(如種族偏見),可以通過訓練中使用的數(shù)據(jù),機構(gòu)政策以及基礎(chǔ)實踐(如何被委托、開發(fā)、部署和使用),在人工智能模型中比較常見。而統(tǒng)計性偏見、人類偏見普遍存在于工程和建模過程中,只有當正確驗證模型性能的不確定性時,這些偏見才會顯現(xiàn)。

可以發(fā)現(xiàn),開發(fā)和運用人工智能的團隊往往對技術(shù)的使用方式和人類的監(jiān)督有不準確的預(yù)期,或應(yīng)用結(jié)果不符合設(shè)計原意,也會導(dǎo)致人工智能偏見。這些偏見放大和強化了歧視,從而對個人和社會產(chǎn)生負面影響,并且其速度和規(guī)模遠遠超過了傳統(tǒng)的歧視性做法(如種族歧視、性別歧視、年齡歧視或能力歧視)。

減輕人工智能偏見面臨的挑戰(zhàn)和建議

《標準》探索了克服人工智能偏見的措施和治理過程,描述了其過程中的三大挑戰(zhàn),包括數(shù)據(jù)集、測試和評估以及人為因素,并為解決這些問題提出建議。

1、數(shù)據(jù)集挑戰(zhàn)

人工智能的設(shè)計和開發(fā)實踐依賴于大規(guī)模的數(shù)據(jù)集來驅(qū)動ML過程。一方面,研究人員、開發(fā)人員和從業(yè)人員更關(guān)注數(shù)據(jù)集的可用性或可獲得性,而不是最合適性。因此,這些過程中使用的數(shù)據(jù)可能不具有代表性。而這些數(shù)據(jù)卻經(jīng)常在訓練ML應(yīng)用中使用。另一方面,當對一個過程或現(xiàn)象的社會技術(shù)背景沒有足夠的了解或認識時,這些在ML應(yīng)用程序中所使用的屬性,也可能不適用于對不同社會群體或文化的分析。

建議:開發(fā)和部署人工智能系統(tǒng)需要注意的關(guān)鍵問題:是否存在適合或適用于人工智能系統(tǒng)所開發(fā)和部署的各種應(yīng)用、工作和任務(wù)的數(shù)據(jù)集?不僅ML系統(tǒng)的預(yù)測行為是由數(shù)據(jù)決定的,數(shù)據(jù)也在很大程度上決定了機器學習任務(wù)本身。所以,解決數(shù)據(jù)集的適用性問題需要注意三個因素:

統(tǒng)計因素:解決人工智能偏見的一個主要趨勢是關(guān)注建模過程中使用的數(shù)據(jù)集的平衡統(tǒng)計代表性。使用統(tǒng)計現(xiàn)象分析可檢測數(shù)據(jù)集中的偏見,有時有助于克服人工智能偏見。

社會技術(shù)因素:在ML應(yīng)用中,使用數(shù)據(jù)集必須進行調(diào)整,要全面考慮其所處環(huán)境的全部社會技術(shù)因素。

人類和數(shù)據(jù)集的相互作用因素:在建立人工智能應(yīng)用基礎(chǔ)模型時,數(shù)據(jù)集中存在的系統(tǒng)性偏見是由人工智能設(shè)計和開發(fā)團隊關(guān)于使用哪些數(shù)據(jù)集的決定和假設(shè)所造成。

2、TEVV(測試和評估、驗證和核實)挑戰(zhàn)

TEVV(測試和評估、驗證和核實)是減輕人工智能偏見所面臨的另一個挑戰(zhàn)。作為一種工程結(jié)構(gòu),TEVV旨在事后檢測和修復(fù)問題,而并不等同于科學方法的全面應(yīng)用。一方面,結(jié)構(gòu)有效性在人工智能系統(tǒng)開發(fā)中尤為重要,另一方面,在許多人工智能項目中,結(jié)構(gòu)化數(shù)據(jù)收集、最小化確認偏差的可靠實驗設(shè)計技術(shù)等都在被淡化,這一變化也導(dǎo)致人工智能偏見的增長。

建議:為了減輕認知和不確定性帶來的風險,模型開發(fā)人員應(yīng)該與部署它們的組織密切合作。團隊應(yīng)努力確保定期更新模型,并在更新的代表性數(shù)據(jù)集上測試和重新校準模型參數(shù)以滿足業(yè)務(wù)目標,同時保持在預(yù)期的性能目標和可接受的偏差水平內(nèi)。

3、人為因素挑戰(zhàn)

隨著ML算法在準確性和精確性方面的發(fā)展,計算系統(tǒng)已經(jīng)轉(zhuǎn)變?yōu)橛扇祟愄峁┯邢掭斎氲淖詣記Q策。算法決策系統(tǒng)的發(fā)展和普及的同時,由于算法模型會產(chǎn)生和放大不公正結(jié)果,公眾對人工智能的信任感也隨之下降。嵌入在算法模型中的系統(tǒng)性偏見也將造成災(zāi)難性的傷害。在沒有評估和管理這些風險的情況下,貿(mào)然部署人工智能模型和系統(tǒng)的組織不僅會傷害其用戶,還會損害其聲譽。

建議:制定算法影響評估,提供一個高層次的結(jié)構(gòu),使組織能夠確定每個算法的風險。

組織多方利益相關(guān)者參與:讓各種利益相關(guān)者參與進來,利用他們的各種經(jīng)驗來應(yīng)對核心挑戰(zhàn),即在人工智能系統(tǒng)將部署的特定環(huán)境中識別有害結(jié)果和環(huán)境變化。

保證多元化、公平與包容:使能夠反映各種背景、觀點和專業(yè)知識的不同個人群體發(fā)揮作用,這也有助于拓寬人工智能系統(tǒng)設(shè)計師和工程師的視野。

改進實踐:采用生命周期方法確定一些關(guān)鍵點,在這些關(guān)鍵點上,完善的指導(dǎo)、擔保和治理流程可以幫助多利益相關(guān)者協(xié)作整合流程,減少偏見。

優(yōu)化人類與人工智能配置:利用人和機器智能來創(chuàng)建機器學習模型——“人在回路”(人們參與到一個良性循環(huán)中,在這個循環(huán)中他們訓練、調(diào)整和測試特定的算法)的方法,考慮到廣泛的社會技術(shù)因素,可以優(yōu)化人類與人工智能的配置。

提高制度和程序透明度:人工智能系統(tǒng)需要更多的解釋和可以很好地被解釋,可以使用數(shù)據(jù)表和模型卡等工具。

讓人類成為人工智能設(shè)計的中心:以人為中心的設(shè)計(HCD)可開發(fā)可靠、安全和值得信賴的人工智能系統(tǒng),有助于提高用戶有效使用產(chǎn)品的能力。

人工智能偏見的治理

人工智能偏見的治理過程幾乎影響到管理過程的各個方面,不僅要關(guān)注技術(shù)工件(如人工智能系統(tǒng)),還要關(guān)注組織流程和文化能力,這些都直接影響到參與培訓、部署和監(jiān)測此類系統(tǒng)的群體。

《標準》指出,對于人工智能偏見治理可從八方面著手:

監(jiān)測:人工智能系統(tǒng)一旦部署,其性能可能與預(yù)期不同,導(dǎo)致不同群體受到不同的待遇??刂圃擄L險的關(guān)鍵措施是部署額外的系統(tǒng)來監(jiān)測潛在的偏見問題。

追訴渠道:系統(tǒng)終端用戶可以通過反饋渠道標記出不正確或潛在危害結(jié)果,并對錯誤或危害進行追訴。

政策和程序:政策和程序可以實現(xiàn)統(tǒng)一的開發(fā)和測試實踐,這有助于確保人工智能系統(tǒng)結(jié)果的可重復(fù)性,相關(guān)風險可以得到統(tǒng)一的映射、測量和管理。

文本標準化:明確的文件可以幫助系統(tǒng)地執(zhí)行政策和程序,使組織的偏見管理過程在每個階段的實施和記錄標準化。文件還可以作為重要信息的單一儲存庫,不僅支持對人工智能系統(tǒng)和相關(guān)業(yè)務(wù)流程的內(nèi)部監(jiān)督,還可以加強系統(tǒng)維護,并作為糾正或調(diào)試處理活動的寶貴資源。

問責制:問責制需要對人工智能系統(tǒng)本身的作用進行明確評估,其任務(wù)應(yīng)嵌入到參與培訓和部署人工智能系統(tǒng)的各個團隊中,不能由一個人承擔。

文化與實踐:為了使治理有效,人工智能需要嵌入到一個組織的整個文化中來強調(diào)信仰、規(guī)范和價值觀。風險管理文化和實踐可以作為一種強大的技術(shù),從社會技術(shù)系統(tǒng)的角度出發(fā)來識別整個人工智能生命周期中的偏見。

風險緩解、風險分類和激勵結(jié)構(gòu):有效的人工智能偏見治理重點在于明確承認減輕風險,而不是避免風險。這有助于確保偏見風險在實踐中得到迅速減輕并被明確分類,從而使組織能夠?qū)⒂邢薜馁Y源集中在最重要的偏見風險上。調(diào)整各團隊的薪酬和晉升激勵機制,從而使風險緩解機制的參與者真正被激勵使用健全的開發(fā)方法,進行嚴格測試和徹底審計。

信息共享:共享網(wǎng)絡(luò)威脅信息有助于組織改善自身和其他組織的安全態(tài)勢。確定內(nèi)部機制,讓團隊分享有關(guān)人工智能的偏見事件或有害影響信息,有助于提升對人工智能風險的重視,并為團隊提供信息以避免過去失敗的設(shè)計。

于Imagination IP的產(chǎn)品已在全球數(shù)十億人的電話、汽車、家庭和工作場所中使用。獲取更多物聯(lián)網(wǎng)、智能穿戴、通信、汽車電子、圖形圖像開發(fā)等前沿技術(shù)信息,歡迎關(guān)注 Imagination Tech!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11038

    瀏覽量

    102446
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236516

原文標題:人工智能也存在偏見?探究人工智能偏見的識別和管理

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第6章人AI與能源科學讀后感

    探討了人工智能如何通過技術(shù)創(chuàng)新推動能源科學的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹了人工智能在能源領(lǐng)域的基本概念和技術(shù)原理。這使得我對人工智能在能源預(yù)測、
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章-AI與生命科學讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章關(guān)于AI與生命科學的部分,為我們揭示了人工智能技術(shù)在生命科學領(lǐng)域中的廣泛應(yīng)用和深遠影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第一章人工智能驅(qū)動的科學創(chuàng)新學習心得

    的效率,還為科學研究提供了前所未有的洞察力和精確度。例如,在生物學領(lǐng)域,AI能夠幫助科學家快速識別基因序列中的關(guān)鍵變異,加速新藥研發(fā)進程。 2. 跨學科融合的新范式 書中強調(diào),人工智能的應(yīng)用促進了多個
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V在人工智能圖像處理領(lǐng)域的應(yīng)用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點。以下是對RISC-V在人工智能圖像處理應(yīng)用前景的詳細分析: 一、RISC-V的基本特點 RISC-V
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學 不過好像都是要學的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結(jié)經(jīng)驗,擬按照要求準備相關(guān)體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動科學創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    呈現(xiàn)、產(chǎn)業(yè)展覽、技術(shù)交流、學術(shù)論壇于一體的世界級人工智能合作交流平臺。本次大會暨博覽會由工業(yè)和信息化部政府采購中心、廣東省工商聯(lián)、前海合作區(qū)管理局、深圳市工信局等單位指導(dǎo),深圳市人工智能產(chǎn)業(yè)協(xié)會主辦
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    圖像識別屬于人工智能

    屬于。圖像識別人工智能(Artificial Intelligence, AI)領(lǐng)域的一個重要分支。 一、圖像識別概述 1.1 定義 圖像識別是指利用計算機技術(shù)對圖像中的內(nèi)容進行分析
    的頭像 發(fā)表于 07-16 10:44 ?739次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    https://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例_Part1 13分59秒 https://t.elecfans.com/v
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    ://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例 28分55秒 https://t.elecfans.com/v/27184.html
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    淺談人工智能監(jiān)管制度

    ,人工智能在提供便利的同時,也會產(chǎn)生諸如算法黑箱和信息繭房等風險,因此,對其進行監(jiān)管十分重要。本文通過梳理歐盟、美國和英國人工智能監(jiān)管制度,來探究域外人工智能監(jiān)管問題。
    發(fā)表于 11-23 10:47 ?311次閱讀

    如何使單片機與無線供電結(jié)合,從而使人工智能脫離電池和線路?

    如何使單片機與無線供電結(jié)合,從而使人工智能脫離電池和線路
    發(fā)表于 10-31 06:34