0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能可解釋性規(guī)制面臨的問題分析

電子工程師 ? 來源:《月旦民商法雜志》 ? 作者:曹建峰 ? 2022-08-09 10:04 ? 次閱讀

摘要:當(dāng)前,因“算法黑箱”而導(dǎo)致的人工智能系統(tǒng)的不透明與不可解釋問題是人工智能信任與問責(zé)的一大困擾。在這樣的背景下,國內(nèi)外立法開始從權(quán)利、義務(wù)等不同角度對人工智能的可解釋性進(jìn)行規(guī)制,提出了算法解釋權(quán)、算法說明義務(wù)等規(guī)則。但可解釋性要求的有效落實(shí)仍面臨著技術(shù)可行性、經(jīng)濟(jì)成本、法律規(guī)則和價值沖突、社會需求差異等多方面挑戰(zhàn)。面向未來,人工智能可解釋性要求的實(shí)現(xiàn),需要法律、技術(shù)、市場、規(guī)范等多種力量共同發(fā)揮作用,側(cè)重通過“算法說明書”、算法相關(guān)信息披露等方式增進(jìn)算法透明、促進(jìn)用戶理解。

當(dāng)前,人工智能應(yīng)用的持續(xù)創(chuàng)新和廣泛普及,主要得益于以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)技術(shù)的發(fā)展進(jìn)步。機(jī)器學(xué)習(xí)技術(shù)使得人工智能系統(tǒng)可以自主進(jìn)行感知、學(xué)習(xí)、決策和行動,但這些所謂的“學(xué)習(xí)算法”(Learning Algorithm)卻為“黑箱問題”(Black Box Problem)所困擾。

雖然人們可以知曉一個算法模型的輸入和輸出,但在很多情況下卻難以理解其運(yùn)作過程。人工智能開發(fā)者設(shè)計(jì)了算法模型,但通常卻不決定某個參數(shù)的權(quán)重以及某個結(jié)果是如何得出的。這意味著,即便開發(fā)者可能也難以理解他們所開發(fā)的人工智能系統(tǒng)。

對人工智能系統(tǒng)如何運(yùn)作缺乏理解,是人工智能帶來諸如安全、歧視、責(zé)任等新的法律、倫理問題的一個主要原因。作為“黑箱”的深度學(xué)習(xí)模型易于遭受對抗攻擊,容易產(chǎn)生種族、性別、年齡等方面歧視,可能導(dǎo)致追責(zé)困難。在醫(yī)療、借貸、刑事司法等攸關(guān)個人重大權(quán)益的應(yīng)用場景中,人工智能的不透明性尤其是有問題的。

因此,考慮到人工智能的不透明性和不可解釋性,對人工智能進(jìn)行適當(dāng)?shù)谋O(jiān)管和治理顯得尤為重要。

在實(shí)踐中,人工智能的規(guī)?;瘧?yīng)用推廣,在很大程度上依賴于用戶能否充分理解、合理信任并且有效管理人工智能這一新型伙伴。為此,確保人工智能產(chǎn)品、服務(wù)和系統(tǒng)具有透明性(Transparency)與可解釋性(Explainability)是至關(guān)重要的。

實(shí)際上,各界已經(jīng)將透明性和可解釋性確立為人工智能研發(fā)應(yīng)用的一個基本的指導(dǎo)性原則。

在倫理層面,歐盟發(fā)布的《可信人工智能的倫理指南》(Ethics Guidelines for Trustworthy AI)將可解釋性作為可信人工智能的四個倫理原則這一,將透明性作為可信人工智能的七個關(guān)鍵要求之一。聯(lián)合國發(fā)布的首個全球性人工智能倫理協(xié)議《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence),提出了人工智能系統(tǒng)生命周期的所有行為者都應(yīng)當(dāng)遵循的十個原則,其中就包括“透明度和可解釋性”。中國國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》針對人工智能提出了包括透明性和可解釋性在內(nèi)的多項(xiàng)倫理要求;中國國家互聯(lián)網(wǎng)信息辦公室等9個部門聯(lián)合發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》將“透明可釋”作為算法應(yīng)用的基本原則,呼吁企業(yè)促進(jìn)算法公開透明,做好算法結(jié)果解釋。

在技術(shù)層面,自從2015年美國國防高級研究計(jì)劃局(DARPA)提出可解釋人工智能(Explainable AI,簡稱為XAI)研究項(xiàng)目以來,XAI已日漸成為人工智能領(lǐng)域的重要研究方向,研究人員和主流科技公司紛紛探索技術(shù)上的和管理上的解決方案,IEEE、ISO等國際標(biāo)準(zhǔn)制定組織則積極推動制定與XAI相關(guān)的技術(shù)標(biāo)準(zhǔn)。

在立法方面,無論是在中國,還是在美國、歐盟等其他國家和地區(qū),人工智能都已進(jìn)入了立法者和監(jiān)管者的視野。個人信息、人工智能等方面的國內(nèi)外立法嘗試從權(quán)利、義務(wù)、責(zé)任等不同角度對人工智能的透明性和可解釋性進(jìn)行規(guī)制。

雖然可解釋性要求已經(jīng)成為人工智能監(jiān)管的一個重要維度,但可解釋性要求的有效落實(shí)依然面臨著諸多困難和挑戰(zhàn)。例如,可解釋性要求的落實(shí)至少需要回答五個關(guān)鍵問題:向誰解釋?為什么解釋?何時解釋?如何解釋?解釋的方法是什么?除了這些問題,人工智能系統(tǒng)的可解釋性要求也面臨著與個人隱私、模型安全、預(yù)測準(zhǔn)確性、知識產(chǎn)權(quán)等諸多其他價值追求相平衡的問題。

本文旨在厘清這些問題,并從技術(shù)和產(chǎn)業(yè)發(fā)展的狀況出發(fā),為人工智能可解釋性要求的法律規(guī)制之完善優(yōu)化提出具體可行的思路。

人工智能可解釋性要求及其立法現(xiàn)狀

(一)人工智能系統(tǒng)的可解釋性及其價值

一般而言,解釋(Explanation)是指“說明某事的含義、原因、理由等”。根據(jù)這一定義,人工智能系統(tǒng)的可解釋性意味著通過提供關(guān)于決策和事件如何產(chǎn)生的信息,來促進(jìn)利益相關(guān)者和AI系統(tǒng)之間的交互,但開發(fā)者、領(lǐng)域?qū)<?、終端用戶、監(jiān)管者等不同的利益相關(guān)者對于AI模型具有不同的解釋需求。

聯(lián)合國的《人工智能倫理問題建議書》將人工智能的可解釋性界定為:“讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說明”,也包括“各個算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統(tǒng)結(jié)果”。美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)在其研究報告《可解釋人工智能的四個原則》(Four Principles of Explainable Artificial Intelligence)中提出了可解釋的AI系統(tǒng)的四個基本特征:

(1)解釋(Explanation),即AI系統(tǒng)對其決策過程和結(jié)果提供依據(jù)或理由;

(2)有效性(Meaningful),即AI系統(tǒng)提供的解釋對于目標(biāo)受眾而言是清晰易懂的;

(3)解釋準(zhǔn)確性(Explanation Accuracy),即解釋可以準(zhǔn)確反映AI系統(tǒng)產(chǎn)生特定輸出的原因,或者準(zhǔn)確反映AI系統(tǒng)的運(yùn)作過程;

(4)知識局限性(Knowledge Limits),即AI系統(tǒng)只有在其設(shè)計(jì)條件下對其輸出具有充分的信心時才可運(yùn)行。

因此,AI系統(tǒng)的可解釋性不僅關(guān)注AI系統(tǒng)的特定輸出結(jié)果,而且關(guān)注AI系統(tǒng)的內(nèi)在原理和運(yùn)作過程;例如,負(fù)責(zé)信貸審批的AI系統(tǒng)需要向用戶解釋為什么拒絕發(fā)放貸款,推薦系統(tǒng)需要讓用戶理解基于用戶的搜索歷史、瀏覽記錄、交易習(xí)慣等個人數(shù)據(jù)進(jìn)行個性化推薦的基本原理。

在解釋的分類上,業(yè)界一般區(qū)分事前解釋(Ante-Hoc Explanation)和事后解釋(Post-Hoc Explanation)。

事前解釋一般指自解釋模型(Self-Interpretable Model),是可以被人類直接查看和理解的算法模型,即模型自身就是解釋。比較常見的自解釋模型包括決策樹、回歸模型(包括邏輯回歸)等。

事后解釋通常是由其他軟件工具或者人工方式生成的解釋,旨在描述、說明特定算法模型如何運(yùn)作或特定輸出結(jié)果如何得出。對于具有“黑箱”屬性的深度學(xué)習(xí)算法,通常只能訴諸事后解釋。事后解釋分為局部解釋(Local Explanation)和全局解釋(Global Explanation):局部解釋聚焦于理解算法模型的特定輸出結(jié)果,全局解釋側(cè)重于對算法模型整體的理解。

此外,英國信息專員辦公室(ICO)在其發(fā)布的指南《解釋人工智能的決策》(Explaining Decisions Made with AI)中區(qū)分基于過程的解釋(Process-Based Explanation)和基于結(jié)果的解釋(Outcome-Based Explanation),并從解釋所涉內(nèi)容的角度提出了解釋的六個主要類型:

(1)原理解釋,即說明AI系統(tǒng)作出決策的理由;

(2)責(zé)任解釋,即AI系統(tǒng)開發(fā)、管理和運(yùn)行過程中的參與人員,以及對決策進(jìn)行人工審查的聯(lián)系人員;

(3)數(shù)據(jù)解釋,即AI系統(tǒng)的決策使用了哪些數(shù)據(jù)以及是如何使用的;

(4)公平性解釋,即為確保決策的公平性和非歧視性而采取的步驟和措施;

(5)安全和性能解釋,即為確保AI系統(tǒng)的決策和行為的準(zhǔn)確性、可靠性、安全性和穩(wěn)健性而采取的步驟和措施;

(6)影響解釋,即為監(jiān)測、評估AI系統(tǒng)的使用及其決策對個人和社會的影響而采取的步驟和措施。英國ICO的分類對于理解可解釋性要求的具體解釋內(nèi)容具有較大參考意義。

人工智能的可解釋性與透明度、責(zé)任、問責(zé)等概念密切相關(guān)。透明度意味著保障用戶等相關(guān)對象對AI系統(tǒng)的知情,包括將在產(chǎn)品或服務(wù)中使用AI系統(tǒng)的事實(shí)告知用戶,也包括給用戶提供關(guān)于AI系統(tǒng)的適當(dāng)?shù)男畔?,在必要時甚至包括源代碼、數(shù)據(jù)集等。因此,人工智能的可解釋性與透明度息息相關(guān);具體而言,增進(jìn)透明度是人工智能的可解釋性的一個主要目標(biāo),而可解釋性則是實(shí)現(xiàn)人工智能的透明度的一個有效方式。此外,在很多時候,AI系統(tǒng)的可解釋性要求主要是為了確保能夠?qū)I系統(tǒng)進(jìn)行問責(zé)并讓相關(guān)行動者承擔(dān)責(zé)任。因此可以說,AI系統(tǒng)的可解釋性要求本身不是最終目的,而是實(shí)現(xiàn)諸如責(zé)任、問責(zé)等其他目的的手段和前提條件。

增進(jìn)AI系統(tǒng)的可解釋性具有多方面的價值:

第一,增強(qiáng)用戶對AI系統(tǒng)的信任。用戶信任是AI系統(tǒng)的可用性的一個重要條件。在現(xiàn)實(shí)中,用戶對AI系統(tǒng)的不信任,往往源于用戶不理解AI系統(tǒng)的內(nèi)在決策過程,不知道AI系統(tǒng)如何作出決定。尤其是在諸如金融、醫(yī)療、司法等高風(fēng)險的應(yīng)用場景中,如果AI模型缺乏可解釋性,就可能不被用戶信任。DARPA的研究發(fā)現(xiàn),相比于只提供決策結(jié)果的AI系統(tǒng),用戶更傾向于既提供決策結(jié)果又提供附帶解釋的AI系統(tǒng)。

第二,防范算法歧視,確保AI系統(tǒng)的公平性。增進(jìn)AI系統(tǒng)的可解釋性,有助于人們對AI系統(tǒng)進(jìn)行審計(jì)或者審查,進(jìn)而可以識別、減少、消除算法歧視。

第三,支持內(nèi)部治理,幫助打造可信的、負(fù)責(zé)任的AI系統(tǒng)。開發(fā)者只有充分理解AI系統(tǒng),才能及時發(fā)現(xiàn)、分析、修正缺陷,進(jìn)而才有可能打造出更加可靠的AI系統(tǒng)。

第四,從人機(jī)協(xié)作的角度看,用戶只有理解AI系統(tǒng),才能更好地與之進(jìn)行交互,在實(shí)現(xiàn)AI系統(tǒng)的預(yù)期目的的同時,幫助AI系統(tǒng)更好地進(jìn)行改進(jìn)和完善。

第五,解決人工智能造成損害的法律責(zé)任難題,對人工智能進(jìn)行解釋可以幫助探查因果,進(jìn)而有助于實(shí)現(xiàn)法律責(zé)任的目的,包括實(shí)現(xiàn)法律責(zé)任的預(yù)防目的。正因如此,可解釋性要求已經(jīng)成為人工智能的法律規(guī)制的一個核心考量。

(二)人工智能可解釋性要求的立法進(jìn)展

全球來看,歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)較早對人工智能算法的可解釋性進(jìn)行法律規(guī)制,主要體現(xiàn)在GDPR第22條。GDPR第22條重點(diǎn)規(guī)制產(chǎn)生法律效果或類似的重大效果(如影響信貸、就業(yè)機(jī)會、健康服務(wù)、教育機(jī)會等)的完全自動化決策(Solely Automated Decision-Making,即完全通過技術(shù)方式作出的決策,不存在人類參與)。

具體而言,對于完全自動化決策,一方面,數(shù)據(jù)主體的知情權(quán)和訪問權(quán)至少涉及以下三個方面:(1)告知存在該項(xiàng)處理的事實(shí);(2)提供關(guān)于內(nèi)在邏輯的有意義的信息;(3)解釋該項(xiàng)處理的重要性和預(yù)想的后果。

另一方面,數(shù)據(jù)主體有權(quán)請求人為干預(yù),表達(dá)其觀點(diǎn)并提出質(zhì)疑;根據(jù)GDPR前言部分(Recitals)的內(nèi)容,數(shù)據(jù)主體的權(quán)利甚至包括獲得解釋的權(quán)利和挑戰(zhàn)該項(xiàng)決策的權(quán)利,即所謂的“算法解釋權(quán)”。

中國對人工智能透明度和可解釋性的法律規(guī)制,在很大程度上借鑒了歐盟GDPR的立法思路。

首先,根據(jù)中國《個人信息保護(hù)法》第7條規(guī)定的公平、透明原則,以及第44條賦予個人的知情權(quán)、決定權(quán),AI系統(tǒng)在處理個人信息時需要對用戶保持必要的透明度。

其次,該法第24條對基于個人信息的算法自動化決策作出了專門規(guī)定:一是,要求個人信息處理者保證算法自動化決策的透明度和結(jié)果公平、公正,此為透明度要求;二是,對于旨在進(jìn)行個性化信息推薦的算法自動化決策應(yīng)用,個人可以選擇退出(Opt-Out),此為退出權(quán);三是,對于對個人權(quán)益有重大影響的算法自動化決策,個人享有要求說明的權(quán)利和拒絕個人信息處理者僅通過自動化決策方式作出決定的權(quán)利,此為算法說明權(quán)。這些規(guī)定尤其是第24條的規(guī)定被認(rèn)為是構(gòu)成了中國版的算法解釋權(quán)。

中國國家互聯(lián)網(wǎng)信息辦公室出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》則提出了算法解釋義務(wù),核心是對算法相關(guān)信息的公示義務(wù)和對算法決策結(jié)果的說明義務(wù)。具體而言:

一是,提供算法推薦服務(wù)需要遵循公平公正、公開透明等原則。

二是,算法推薦服務(wù)提供者需要制定并公開算法推薦服務(wù)相關(guān)規(guī)則。

三是,該法規(guī)鼓勵算法推薦服務(wù)提供者優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性。

四是,算法推薦服務(wù)提供者需要告知用戶其提供算法推薦服務(wù)的情況,并公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等。

五是,算法推薦服務(wù)提供者需要向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。

六是,對于對用戶權(quán)益造成重大影響的算法應(yīng)用,算法推薦服務(wù)提供者需要提供說明并承擔(dān)相應(yīng)責(zé)任。

總結(jié)來看,中國對人工智能可解釋性的法律規(guī)制主要有兩個路徑:

其一,一般性地給AI系統(tǒng)的開發(fā)者施加公開算法相關(guān)信息、優(yōu)化算法可解釋性等義務(wù),從而促進(jìn)用戶對AI系統(tǒng)整體的理解;

其二,在個案意義上,對于給個人權(quán)益造成重大影響的算法決策結(jié)果,通過配置算法解釋或說明的權(quán)利與義務(wù)來保障用戶權(quán)益,并解決用戶與開發(fā)者之間信息和權(quán)力不對稱的問題。

但在實(shí)踐中,這兩種路徑依然面臨著一些問題,例如算法解釋相關(guān)的權(quán)利與義務(wù)應(yīng)適用于哪些AI系統(tǒng)?為了全局可解釋的目的,AI系統(tǒng)的哪些信息需要對外提供以及應(yīng)當(dāng)以什么方式提供?如何確保解釋的準(zhǔn)確性和有效性?等等。

人工智能可解釋性規(guī)制面臨的問題分析

首先,雖然立法可以對算法解釋提出一般性要求,但可解釋性要求的實(shí)現(xiàn)卻并非易事,不僅面臨因“算法黑箱”而帶來的技術(shù)挑戰(zhàn),而且需要考慮諸多因素,下文將一一進(jìn)行分析。

其一,對象。技術(shù)開發(fā)人員、終端用戶、監(jiān)管者等不同的利益相關(guān)者對算法解釋的需求是有差異的。而且普通用戶感興趣或能理解的因素及其復(fù)雜程度,可能與專業(yè)的審查人員或法律調(diào)查人員需要的恰當(dāng)信息存在很大不同。例如,普通用戶可能想知道為什么AI系統(tǒng)作出了特定的決策,以便于能夠有理由質(zhì)疑AI系統(tǒng)的決策,如果用戶認(rèn)為決策是不公平的或錯誤的。專業(yè)人員則需要更全面的、更多技術(shù)細(xì)節(jié)的解釋,以便于評估AI系統(tǒng)是否滿足可靠、準(zhǔn)確等方面的一般性要求或者監(jiān)管要求。這意味著普通用戶需要的往往是明白易懂的、非技術(shù)語言的解釋,而非充斥著技術(shù)細(xì)節(jié)的詳盡解釋。不向普通用戶提供詳盡的解釋可能有悖常理,但在實(shí)踐中卻是有益的。為了解釋AI系統(tǒng)及其輸出結(jié)果而給普通用戶提供底層的數(shù)學(xué)公式,即便這可能是技術(shù)上最準(zhǔn)確的解釋,但普通用戶卻不大可能理解。普通用戶也許只是希望確保AI系統(tǒng)的輸入與輸出是公平合理的,而非希望對背后的計(jì)算具有深層次的理解。因此,明白不同利益相關(guān)者的真正需求才是至關(guān)重要的,而不是采取一刀切的路徑。

83baeb24-1710-11ed-ba43-dac502259ad0.png

表1:不同階段的不同主體的算法解釋目的

其二,應(yīng)用場景。應(yīng)用場景的不同也可能影響提供解釋的時間與方式。并非所有的應(yīng)用場景都需要對AI算法模型及其決策結(jié)果做出事無巨細(xì)的解釋,這取決于AI算法決策是否對受眾的合法權(quán)益產(chǎn)生實(shí)質(zhì)性的影響。例如,對于在餐廳分配位置或自動整理手機(jī)相冊的算法,與審批貸款或輔助判刑的算法,就需要區(qū)別對待。如果一刀切地要求提供詳盡的解釋,缺乏合理性和必要性。所以歐盟的人工智能法草案按照應(yīng)用場景的不同將AI系統(tǒng)分為高風(fēng)險、有限風(fēng)險和最小風(fēng)險,并只針對高風(fēng)險AI系統(tǒng)提出了算法解釋義務(wù)。

其三,時間與地點(diǎn)。從目前的技術(shù)來看,要求AI面向全部應(yīng)用場景,實(shí)時地、大規(guī)模地提供解釋頗具挑戰(zhàn)性且難以實(shí)現(xiàn)。行業(yè)中的可解釋AI實(shí)踐更多聚焦于不同應(yīng)用場景下的事后解釋。

其四,解釋的關(guān)聯(lián)性或者說解釋的目的。為什么需要進(jìn)行解釋?AI系統(tǒng)的目的與應(yīng)用場景至關(guān)重要。相比于執(zhí)行影響較小的任務(wù)的AI系統(tǒng)(如推薦電影的AI系統(tǒng)),AI系統(tǒng)被用來進(jìn)行影響人身安全或財(cái)產(chǎn)安全的決策時(如醫(yī)療診斷、司法審判、金融借貸等),需要更多的投入與深度的解釋。

其五,技術(shù)與經(jīng)濟(jì)可行性。一些先進(jìn)的、復(fù)雜的AI系統(tǒng)在向人類解釋其運(yùn)作時可能存在技術(shù)限制。在經(jīng)濟(jì)可行性上,也需要考慮成本維度,大規(guī)模地提供解釋所需成本與投入也需要考慮在內(nèi),以避免不合理的細(xì)節(jié)或嚴(yán)格的要求阻礙有價值A(chǔ)I系統(tǒng)的部署。盡管投入足夠的時間、精力、專業(yè)知識與正確的工具,通??梢灾獣詮?fù)雜AI系統(tǒng)是如何運(yùn)作的,理解AI系統(tǒng)的行為背后的原因,但如果在實(shí)踐中不加區(qū)分地要求解釋,不僅在規(guī)模應(yīng)用上欠缺經(jīng)濟(jì)可行性,而且可能適得其反地阻礙具有巨大價值的(例如拯救生命)AI系統(tǒng)的應(yīng)用部署。因?yàn)榻忉尩某杀臼指甙?,所投入的技術(shù)資源也更加巨大。如果采取一個極高的標(biāo)準(zhǔn),要求AI系統(tǒng)的每一個結(jié)果都做到完全可追溯并提供詳盡的解釋,那么這在實(shí)踐中可能極大地將AI系統(tǒng)限制在最基本的技術(shù)(如靜態(tài)的決策樹)。這最終會極大地限制人工智能的社會與經(jīng)濟(jì)效益。比如,一個醫(yī)療算法,如果每次診斷結(jié)果都要求提供詳盡的解釋,可能這個算法永遠(yuǎn)無法投入使用,產(chǎn)生價值。因?yàn)槊看屋敵鲆粋€決策,可能得花費(fèi)數(shù)天時間來提供解釋。

其次,需要考慮可解釋性要求與效率、準(zhǔn)確性、安全、隱私、網(wǎng)絡(luò)安全、商業(yè)秘密、知識產(chǎn)權(quán)等其他重要目的之間的平衡問題。一些形式的透明性和可解釋性看似有吸引力,但卻可能帶來相當(dāng)嚴(yán)重的風(fēng)險,而且對于增進(jìn)責(zé)任與打造信任幾乎無甚助益。例如,披露源代碼或單個用戶的數(shù)據(jù),無助于理解AI系統(tǒng)如何運(yùn)行以及它為何做出特定決策,但卻可能讓AI系統(tǒng)被濫用或操縱,給用戶隱私與商業(yè)秘密帶來顯著風(fēng)險。

實(shí)際上,分享、開放源代碼是最低端、最無效的算法透明與解釋方式;因?yàn)锳I系統(tǒng)太過復(fù)雜,即使技術(shù)專家也無法測量。所以開放源代碼無助于普通用戶理解AI系統(tǒng)。此外,算法不是越透明越好,例如,把算法變得簡單,可以增加可解釋性,同時卻可能讓算法更不準(zhǔn)確。這是因?yàn)锳I模型的預(yù)測準(zhǔn)確性和可解釋性之間存在著天然的緊張關(guān)系。實(shí)際上,在可解釋與準(zhǔn)確性之間,如果AI應(yīng)用對性能要求不那么高,則可解釋性可以超過準(zhǔn)確性;如果安全是優(yōu)先的,則可解釋性可以讓位于準(zhǔn)確性,只要存在能夠確保問責(zé)的保障措施即可。

正如聯(lián)合國《人工智能倫理問題建議書》所指出的那樣,公平、安全、可解釋性這些原則本身是可取的,但在任何情況下這些原則之間都可能會產(chǎn)生矛盾,需要根據(jù)具體情況進(jìn)行評估,以管控潛在的矛盾,同時考慮到相稱性原則并尊重個人權(quán)利等。

人工智能可解釋性規(guī)制的未來進(jìn)路

從以上分析可知,對人工智能系統(tǒng)進(jìn)行解釋是一件非常復(fù)雜的事情,而且中國現(xiàn)行立法還遠(yuǎn)未形成一個統(tǒng)一的規(guī)制路徑。無論解釋的出發(fā)點(diǎn)是權(quán)利,還是義務(wù),抑或是責(zé)任,都尚未確立清晰明確的規(guī)則。面向未來,對人工智能的透明度和可解釋性進(jìn)行規(guī)制,需要法律、技術(shù)、市場、規(guī)范等多種力量共同發(fā)揮作用。

(一)立法宜遵循基于風(fēng)險的分級分類分場景監(jiān)管思路

常識告訴我們,技術(shù)應(yīng)用不可能完美無缺、永不錯誤,那種認(rèn)為技術(shù)應(yīng)用應(yīng)當(dāng)符合絕對性要求的觀點(diǎn)是偏頗的、誤導(dǎo)性的。在這個意義上,新技術(shù)治理應(yīng)當(dāng)是風(fēng)險導(dǎo)向的,不是為了徹底消除風(fēng)險,而是對風(fēng)險進(jìn)行有效管理。因此,立法不宜采取過度嚴(yán)苛的監(jiān)管要求,避免在透明度與可解釋性方面對AI算法應(yīng)用提出“一刀切”(One-Size-Fits-All)的要求,也不宜簡單粗暴要求公開算法的源代碼等技術(shù)細(xì)節(jié);而是需要采取包容審慎的立場,建立分級分類分場景的監(jiān)管方式,支持AI算法應(yīng)用不斷創(chuàng)新和發(fā)展,兼顧政府、科技企業(yè)以及社會公眾的整體利益,在鼓勵科技創(chuàng)新、追求科技向善、維護(hù)社會公共利益之間找到平衡點(diǎn)。

具體而言,在人工智能可解釋性要求的實(shí)現(xiàn)方式上,首先,披露AI算法模型的源代碼是無效的方式,不僅無助于對AI算法模型的理解,反倒可能威脅數(shù)據(jù)隱私、商業(yè)秘密以及技術(shù)安全;其次,不宜不加區(qū)分應(yīng)用場景與時空場合地要求對所有的算法決策結(jié)果進(jìn)行解釋或說明;再次,側(cè)重應(yīng)用過程中的披露義務(wù),部署AI系統(tǒng)的主體對于任何披露與記錄要求負(fù)有責(zé)任,需要披露AI系統(tǒng)實(shí)質(zhì)性參與決策或與人類互動的事實(shí),披露應(yīng)當(dāng)以清晰易懂、有意義的方式提供關(guān)于AI參與的關(guān)鍵任務(wù)的模式;最后,避免強(qiáng)制要求披露用來訓(xùn)練AI模型的數(shù)據(jù)集,這不僅不具有可操作性,而且容易與版權(quán)保護(hù)沖突,侵犯用戶的數(shù)據(jù)隱私或違反合同義務(wù)。

此外,法律對AI系統(tǒng)的可解釋性要求應(yīng)側(cè)重滿足終端用戶的需求。到目前為止,AI系統(tǒng)的可解釋性主要服務(wù)于AI開發(fā)人員和監(jiān)管者的需求,例如幫助開發(fā)人員排查漏洞并改進(jìn)AI系統(tǒng),幫助監(jiān)管者對AI應(yīng)用進(jìn)行監(jiān)管。而非讓終端用戶可以理解AI系統(tǒng)。2020年的一項(xiàng)研究發(fā)現(xiàn),企業(yè)部署可解釋人工智能更多是為了支持工程開發(fā)等內(nèi)部目的,而非增強(qiáng)用戶或其他的外部利益相關(guān)者的透明度和信任。因此,為了促進(jìn)用戶對AI系統(tǒng)的理解,一種可行的思路是,借鑒食品營養(yǎng)成分表、產(chǎn)品說明書、藥品或醫(yī)療器械的使用說明、風(fēng)險告知等既有的信息披露機(jī)制,針對符合條件的AI系統(tǒng)建立“算法說明書”機(jī)制。歐盟的人工智能立法采取了類似的思路,歐盟人工智能法草案遵循分類監(jiān)管的思路,針對高風(fēng)險的AI系統(tǒng)提出了較高的透明度和信息提供要求,即開發(fā)者應(yīng)確保高風(fēng)險AI系統(tǒng)的運(yùn)作足夠透明,向用戶提供使用說明(Instructions of Use)等信息,并披露系統(tǒng)開發(fā)者的基本信息、高風(fēng)險系統(tǒng)的性能特征、監(jiān)督措施以及維護(hù)措施等信息。

(二)探索建立合理適度的、適應(yīng)不同行業(yè)與應(yīng)用場景的人工智能可解釋性標(biāo)準(zhǔn)

法律治理固然重要,但可解釋人工智能的實(shí)現(xiàn)也離不開技術(shù)人員和技術(shù)社群的直接參與。到目前為止,XAI已經(jīng)成為人工智能領(lǐng)域最重要的發(fā)展方向之一,但正如美國DARPA關(guān)于XAI的回顧報告所發(fā)現(xiàn)的那樣,XAI的進(jìn)展仍十分有限,面臨著諸多難題和挑戰(zhàn)。當(dāng)前最重要的是建立人工智能可解釋性的技術(shù)標(biāo)準(zhǔn)。在這方面,首先需要明確的一個關(guān)鍵問題是,人工智能的評價標(biāo)準(zhǔn)不應(yīng)是“完美級”(Perfection),而應(yīng)在與既有流程或人類決策對比的基礎(chǔ)上,界定評價AI系統(tǒng)的最低可接受標(biāo)準(zhǔn)。所以即使AI系統(tǒng)需要解釋,也必須考慮可解釋的程度。因?yàn)橐驛I系統(tǒng)滿足可解釋性的“黃金標(biāo)準(zhǔn)”(遠(yuǎn)遠(yuǎn)超過既有的非AI模式即人類決策所要求的),可能不當(dāng)?shù)刈璧KAI技術(shù)的創(chuàng)新性使用。因此需要采取折中路徑,考慮技術(shù)限制與不同可解釋標(biāo)準(zhǔn)需要的利益權(quán)衡,以便平衡使用復(fù)雜AI系統(tǒng)帶來的好處與不同的可解釋性標(biāo)準(zhǔn)帶來的實(shí)踐限制。筆者認(rèn)為,用戶友好型的解釋應(yīng)當(dāng)是準(zhǔn)確的、清晰的、明確的、有效的,且考慮不同應(yīng)用場景的需求,以提高對AI系統(tǒng)的整體理解:解釋是否準(zhǔn)確傳遞了支撐AI系統(tǒng)的推薦的關(guān)鍵信息(Key Information)?解釋是否有助于對AI系統(tǒng)整體功能的理解?解釋是否清晰(Clear)、明確(Specific)、相關(guān)(Relatable)、可執(zhí)行(Actionable)?解釋是否適當(dāng)考慮了敏感性(Sensitivity)?例如用戶的敏感信息。

具體可以從以下方面來推進(jìn)AI可解釋性標(biāo)準(zhǔn):

第一,針對AI系統(tǒng)的每一個應(yīng)用場景都提供可解釋性標(biāo)準(zhǔn)的指南,是不現(xiàn)實(shí)的,但可以針對一些示范性的應(yīng)用場景提供可解釋標(biāo)準(zhǔn)的指南。這能夠給行業(yè)和企業(yè)提供有益參考,來平衡不同AI模型的性能與不同標(biāo)準(zhǔn)的可解釋性要求。

第二,對于政策相關(guān)方而言,發(fā)布AI可解釋的最佳實(shí)踐做法案例集,以及具有負(fù)面影響的負(fù)面做法,都是值得嘗試的。包括用以提供解釋的有效的用戶界面,以及面向?qū)<液蛯徲?jì)人員的記錄機(jī)制(例如詳細(xì)的性能特征、潛在用途、系統(tǒng)局限性等)。

第三,可以創(chuàng)建一個說明不同級別的可解釋性的圖譜。這個圖譜可被用來給不同行業(yè)與應(yīng)用場景提供最小可接受的衡量標(biāo)準(zhǔn)。例如,如果某個失誤的潛在不利影響是非常微小的,那么可解釋性則不怎么重要。相反,如果某個失誤是危及生命財(cái)產(chǎn)安全的,則可解釋性變得至關(guān)重要。類似地,如果用戶可以容易地?cái)[脫算法自動化決策的約束,則對深入理解AI系統(tǒng)的需求就不那么旺盛。

(三)支持行業(yè)自律,發(fā)揮市場的力量來促進(jìn)可解釋性人工智能的發(fā)展

根據(jù)美國科技行業(yè)的經(jīng)驗(yàn),可解釋人工智能的工作應(yīng)主要由企業(yè)與行業(yè)主導(dǎo)而非由政府強(qiáng)制監(jiān)管,采取自愿性機(jī)制而非強(qiáng)制性認(rèn)證。因?yàn)槭袌隽α繒羁山忉屝耘c可復(fù)制性,會驅(qū)動可解釋人工智能的發(fā)展進(jìn)步。

一方面,從市場競爭的角度看,為了獲得競爭優(yōu)勢,企業(yè)會主動提高其AI系統(tǒng)、產(chǎn)品與服務(wù)的可解釋程度,從而讓更多人愿意采納或使用其人工智能應(yīng)用,進(jìn)而維持自身的市場競爭力;

另一方面,從用戶的角度看,用戶會用腳投票,即如果用戶不理解AI系統(tǒng)的運(yùn)作,在使用AI系統(tǒng)、產(chǎn)品與服務(wù)時可能存在顧慮,這意味著可解釋性不足、難以被用戶理解的AI系統(tǒng)、產(chǎn)品與服務(wù)將無法獲得用戶的持久信任,因而用戶對此類AI應(yīng)用的需求也會降低。

就目前而言,主流科技公司紛紛重視AI的可解釋性研究與應(yīng)用,已在積極探索人工智能可解釋性的實(shí)現(xiàn)方式。

例如,谷歌的模型卡片機(jī)制(Model Cards),旨在以通俗、簡明、易懂的方式讓人們看懂并理解算法的運(yùn)作過程,對模型的輸入、輸出、模型架構(gòu)、性能、局限性等進(jìn)行描述。

IBM的AI事實(shí)清單機(jī)制(AI Fact Sheets),旨在提供與AI模型或服務(wù)的創(chuàng)建和部署有關(guān)的信息,包括目的、預(yù)期用途、訓(xùn)練數(shù)據(jù)、模型信息、輸入和輸出、性能指標(biāo)、偏見、魯棒性、領(lǐng)域轉(zhuǎn)移、最佳條件、不良條件、解釋、聯(lián)系信息等。面向未來,應(yīng)著重通過最佳實(shí)踐做法、技術(shù)指南、自律公約等行業(yè)自律措施來支持可解釋人工智能的發(fā)展。

(四)替代性機(jī)制和倫理規(guī)范作為對可解釋性要求的有益補(bǔ)充

雖然可解釋性是完善AI技術(shù)的最優(yōu)解之一,但并非所有的AI系統(tǒng)及其決策都可以解釋,或者都需要解釋。當(dāng)AI系統(tǒng)過于復(fù)雜,導(dǎo)致難以滿足可解釋性要求,或是導(dǎo)致解釋機(jī)制失靈、效果不樂觀時,就要積極轉(zhuǎn)變規(guī)制的思路,探索更多元化、實(shí)用化的技術(shù)路徑。

目前在技術(shù)上主張的是采取適當(dāng)?shù)奶娲詸C(jī)制,如第三方反饋、申訴機(jī)制與人類審查介入、常規(guī)監(jiān)測、審計(jì)(Auditing)等,這些替代性機(jī)制可以對AI算法的決策起到監(jiān)督和保障作用。

例如,第三方標(biāo)記反饋機(jī)制允許人們針對AI系統(tǒng)提供使用上的反饋,常見的標(biāo)記反饋技術(shù)包括用戶反饋渠道(“點(diǎn)擊反饋”按鈕)、漏洞獎勵機(jī)制等。

用戶申訴機(jī)制能夠?qū)I系統(tǒng)及其開發(fā)者形成有效監(jiān)督,也是實(shí)現(xiàn)AI可責(zé)性的重要保障。中國的《信息安全技術(shù)個人信息安全規(guī)范》《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南》等標(biāo)準(zhǔn)都對用戶的投訴、質(zhì)疑、反饋以及人工復(fù)核等機(jī)制作出了具體規(guī)定。

常規(guī)監(jiān)測包括嚴(yán)格且持續(xù)的測試、對抗測試等,旨在發(fā)現(xiàn)系統(tǒng)中的問題并及時改進(jìn)。

審計(jì)機(jī)制作為確保AI可責(zé)性的重要方式,是對AI算法應(yīng)用情況的記錄、回溯和追查,通過算法審計(jì)可以達(dá)到反向解釋的作用,降低算法黑箱的不良影響。

此外,考慮到監(jiān)管的滯后性和技術(shù)的持續(xù)迭代性,倫理原則、倫理指南、倫理審查委員會等倫理規(guī)范和落地制度將能發(fā)揮更大價值,即使對于不具有可解釋性的人工智能應(yīng)用,也能確保企業(yè)以可信的、負(fù)責(zé)任的方式予以部署、使用。

人工智能的透明性和可解釋性,連同公平性評價、安全考慮、人類AI協(xié)作、責(zé)任框架等,都是人工智能領(lǐng)域的基本問題。隨著人工智能監(jiān)管的持續(xù)加強(qiáng),立法對人工智能系統(tǒng)的透明性和可解釋性規(guī)制也將走向深入。

一個首要的問題是,監(jiān)管者在針對人工智能系統(tǒng)設(shè)計(jì)透明性和可解釋性要求時,需要考慮他們想要實(shí)現(xiàn)什么目標(biāo),以及在特定情境下如何更好地匹配這些目標(biāo)。因?yàn)橥该餍院涂山忉屝员旧聿皇悄康?,而是增進(jìn)責(zé)任與問責(zé),賦能用戶,打造信任與信心的方式和手段。

將來立法在設(shè)定可解釋性要求與標(biāo)準(zhǔn)時,不僅需要考慮受眾需求、應(yīng)用場景、技術(shù)與經(jīng)濟(jì)可行性、時空等因素,而且需要考慮可操作性、務(wù)實(shí)性,同時還需要注重做好與效率、準(zhǔn)確性、安全、隱私、網(wǎng)絡(luò)安全、知識產(chǎn)權(quán)保護(hù)等目的之間的平衡。很難遵從或者遵從成本很高的可解釋標(biāo)準(zhǔn)會阻礙AI系統(tǒng)的應(yīng)用。如果在所有的情形下都要求最詳盡的解釋,而不考慮實(shí)際的需求,則可能會阻礙創(chuàng)新,也會給企業(yè)及社會帶來高昂的經(jīng)濟(jì)成本。

所以,適當(dāng)?shù)目山忉屝詷?biāo)準(zhǔn)不應(yīng)超過合理且必要的限度。舉例而言,社會不會要求航空公司向乘客解釋為什么飛機(jī)采取了算法決定的航線。類似地,一個相似的務(wù)實(shí)性、情境特定的路徑應(yīng)適用于AI系統(tǒng)的可解釋性標(biāo)準(zhǔn)要求。就像取得駕照,相信汽車可以安全駕駛,并不需要人人都成為專業(yè)的汽車工程師一樣,當(dāng)使用AI系統(tǒng)時,解釋并不總是必須的。

最后,“算法說明書”在增進(jìn)算法透明、促進(jìn)用戶對算法的理解上的價值,值得進(jìn)一步探討論證。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4576

    瀏覽量

    92341
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29383

    瀏覽量

    267668
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236509

原文標(biāo)題:萬字長文詳解:人工智能系統(tǒng)可解釋性要求的法律規(guī)制

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    、優(yōu)化等方面的應(yīng)用有了更清晰的認(rèn)識。特別是書中提到的基于大數(shù)據(jù)和機(jī)器學(xué)習(xí)的能源管理系統(tǒng),通過實(shí)時監(jiān)測和分析能源數(shù)據(jù),實(shí)現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學(xué)中
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    閱讀這一章后,我深感人工智能與生命科學(xué)的結(jié)合正引領(lǐng)著一場前所未有的科學(xué)革命,以下是我個人的讀后感: 1. 技術(shù)革新與生命科學(xué)進(jìn)步 這一章詳細(xì)闡述了人工智能如何通過其強(qiáng)大的數(shù)據(jù)處理和分析能力,加速生命科學(xué)
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析復(fù)雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)律。 2. 高性能
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,無疑為讀者鋪設(shè)了一條探索人工智能(AI)如何深刻影響并推動科學(xué)創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術(shù)在科學(xué)領(lǐng)域的廣泛應(yīng)用潛力以及其帶來的革命變化,以下是我個人的學(xué)習(xí)心得: 1.
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V在人工智能圖像處理領(lǐng)域的應(yīng)用前景十分廣闊,這主要得益于其開源、靈活性和低功耗等特點(diǎn)。以下是對RISC-V在人工智能圖像處理應(yīng)用前景的詳細(xì)分析: 一、RISC-V的基本特點(diǎn)
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學(xué) 不過好像都是要學(xué)的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會材料。看能否有助于入門和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    、污染治理、碳減排三個方面介紹了人工智能為環(huán)境科學(xué)引入的新價值和新機(jī)遇。 第8章探討了AI for Science在快速發(fā)展過程中面臨的機(jī)遇和挑戰(zhàn),并對“平臺科研”模式進(jìn)行了展望。 申請時間
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行和低延遲特性
    發(fā)表于 07-29 17:05

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2) 課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎(chǔ)知識指引
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    愛立信推出認(rèn)知軟件新功能

    日前,愛立信宣布在其專為運(yùn)營商設(shè)計(jì)的認(rèn)知軟件組合中,新增采用“可解釋性人工智能(Explainable AI,XAI)”的新功能,進(jìn)一步加速在網(wǎng)絡(luò)設(shè)計(jì)和優(yōu)化中采用人工智能后的價值轉(zhuǎn)化。
    的頭像 發(fā)表于 02-22 09:22 ?5153次閱讀

    人工智能要以人為本智能向善

    隨著人工智能技術(shù)的迅猛發(fā)展,人工智能已遍布人們?nèi)粘I畹脑S多領(lǐng)域,給人類社會帶來前所未有的巨大變革,同時也帶來了一系列重大安全風(fēng)險。全球人工智能治理正面臨從道德倫理約束向法律
    的頭像 發(fā)表于 11-16 10:32 ?537次閱讀