隨著人工智能繼續(xù)進軍企業(yè),許多IT專業(yè)人士開始對其使用的系統(tǒng)中可能存在的AI偏見表示擔憂。一份來自DataRobot的最新報告發(fā)現(xiàn),美國和英國近一半的人工智能專業(yè)人士“非?!睋娜斯ぶ悄艿钠?。
這份報告于去年6月對350多名參與人工智能和機器學習(ML)采購決策的美國和英國首席信息官、首席技術官、副總裁和IT經(jīng)理進行了調查,報告還發(fā)現(xiàn),“品牌聲譽受損”和“客戶信任喪失”是人工智能偏見最令人擔憂的后果。這促使93%的受訪者表示,他們計劃在未來12個月加大對人工智能偏見預防措施的投資。
DataRobot可信人工智能副總裁特德?夸特勒表示,盡管許多組織將人工智能視為游戲規(guī)則的改變者,但許多組織仍在使用不可信的人工智能系統(tǒng)。他說,“鑒于企業(yè)在使用人工智能方面的重大失誤,組織必須確保人工智能方法符合其組織價值觀。”
DataRobot的報告稱,在企業(yè)內(nèi)部管理人工智能驅動的功能可能很有價值,但也可能帶來挑戰(zhàn)。并非所有人工智能都得到平等對待,如果沒有適當?shù)闹R或資源,企業(yè)可以選擇或部署人工智能的方式可能弊大于利。
調查發(fā)現(xiàn),超過三分之一的人工智能專業(yè)人員仍然使用黑盒人工智能系統(tǒng),這意味著他們對如何使用輸入到人工智能解決方案中的數(shù)據(jù)幾乎一無所知。DataRobot說,這種缺乏可視性的情況可能會導致受訪者對其組織內(nèi)出現(xiàn)的人工智能偏見感到擔憂。
“AI偏見的出現(xiàn)是因為我們正在對熟悉的檢索系統(tǒng)中的不完整數(shù)據(jù)做出決定,”認知計算和內(nèi)容分析咨詢公司CythExIS的總裁費爾德曼說,“算法都對世界和用戶的優(yōu)先級做出假設。這意味著,除非你理解這些假設,否則你仍將盲目飛行。這就是為什么必須使用包括人在內(nèi)的系統(tǒng),而不是在真空中做決定的原因?!?/p>
如何減少人工智能偏差
Gartner研究副總裁Jim Hare在一份聲明中說:“需要新的工具和技能來幫助企業(yè)識別這些和其他潛在的偏見來源,在使用人工智能模型方面建立更多的信任,并降低企業(yè)品牌和聲譽風險。越來越多的數(shù)據(jù)和分析領導者和首席數(shù)據(jù)官(CDO)正在雇傭ML法證和道德調查人員?!?/p>
Facebook、谷歌、美國銀行、MassMutual和美國航天局等機構正在或已經(jīng)任命人工智能行為鑒證專家,在人工智能模型部署之前,集中精力發(fā)現(xiàn)不希望出現(xiàn)的偏見。
如果人工智能要發(fā)揮其潛力,增加人們對系統(tǒng)的信任,就必須采取措施,盡量減少偏見。其中包括注意人工智能可以幫助糾正偏見的背景,以及人工智能有可能加劇偏見的背景;建立測試和減輕人工智能系統(tǒng)偏差的過程和實踐;參與基于事實的對話,討論人類決策中的偏見;探索人類和機器如何最佳地協(xié)同工作;加大對偏見研究的投入,提供更多的數(shù)據(jù),同時限制隱私;以及加大對人工智能領域多樣化的投資。
研究發(fā)現(xiàn),雖然美國受訪者最關心的是由于用戶和系統(tǒng)設計之間的偏差而產(chǎn)生的偏差,但英國受訪者更關心的是技術偏差或由技術限制引起的偏差。
研究顯示,為了加強人工智能偏見的預防工作,59%的受訪者表示,他們計劃投資更復雜的白盒系統(tǒng),54%的受訪者表示,他們將聘請內(nèi)部人員管理人工智能信任,48%的受訪者表示,他們打算聘請第三方供應商監(jiān)督人工智能信任。
組織需要擁有并內(nèi)化他們的人工智能策略,因為這有助于他們確保人工智能模型符合他們的價值觀。對于每個業(yè)務環(huán)境和行業(yè),需要在部署之前和之后對模型進行評估,以降低風險。
報告顯示,除了這些預防人工智能偏差的措施外,大多數(shù)全球受訪者認為,人工智能監(jiān)管將有助于界定什么是人工智能偏差,以及應該如何預防。
-
谷歌
+關注
關注
27文章
6102瀏覽量
104780 -
AI
+關注
關注
87文章
29368瀏覽量
267649 -
人工智能
+關注
關注
1789文章
46328瀏覽量
236496
發(fā)布評論請先 登錄
相關推薦
評論