機(jī)器是種族主義者嗎? 算法和人工智能具有天生的偏見嗎?Facebook,Google和Twitter是否有政治偏見?這些答案很復(fù)雜。
但是,如果問題在于科技行業(yè)是否在解決這些偏見方面做得足夠,那么直接的回答是“否”。
警告AI和機(jī)器學(xué)習(xí)系統(tǒng)正在使用“不良數(shù)據(jù)”進(jìn)行訓(xùn)練。經(jīng)常被吹捧的解決方案是確保人們使用無偏數(shù)據(jù)來訓(xùn)練系統(tǒng),這意味著人類需要避免自己偏見。但這意味著科技公司正在培訓(xùn)其工程師和數(shù)據(jù)科學(xué)家以了解認(rèn)知偏差以及如何“應(yīng)對”偏差。有沒有人停下來問那些給機(jī)器喂食的人是否真的了解偏見是什么意思?
諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見的算法而反復(fù)受到攻擊。為了應(yīng)對這些合理的恐懼,他們的領(lǐng)導(dǎo)人發(fā)誓要進(jìn)行內(nèi)部審計,并聲稱他們將與這一指數(shù)級威脅作斗爭。正如無數(shù)的研究和出版物所表明的那樣,人類無法完全避免偏見。堅持不這樣做是對一個非常現(xiàn)實的問題的一種理智上的不誠實和懶惰的反應(yīng)。
在Facebook的六個月中,我被聘為公司業(yè)務(wù)誠信部全球選舉誠信運(yùn)營負(fù)責(zé)人,參與了有關(guān)該主題的眾多討論。我不知道有人故意將偏見納入工作。但是我也沒有找到任何人真正知道以任何真實和有條理的方式抵制偏見的含義。
在擔(dān)任CIA官員十多年的時間里,我經(jīng)歷了數(shù)月的結(jié)構(gòu)性方法培訓(xùn)和例行再培訓(xùn),以檢查假設(shè)和理解認(rèn)知偏見。這是情報人員發(fā)展的最重要技能之一。分析人員和操作人員必須磨練測試假設(shè)的能力,并在分析事件時認(rèn)真地評估自己的偏見,并進(jìn)行不舒服且通常耗時的工作。他們還必須檢查那些向收藏家提供信息的人(資產(chǎn),外國政府,媒體,對手)的偏見。
傳統(tǒng)上,這類培訓(xùn)是為那些需要批判性分析思維的人員而設(shè)的,據(jù)我所知和經(jīng)驗,在技術(shù)領(lǐng)域這種培訓(xùn)很少見。盡管高科技公司通常會接受強(qiáng)制性的“管理偏見”培訓(xùn)來幫助解決多樣性和包容性問題,但我沒有看到有關(guān)認(rèn)知偏見和決策領(lǐng)域的任何此類培訓(xùn),特別是與產(chǎn)品和流程的構(gòu)建和保護(hù)有關(guān)的培訓(xùn)。
從我的Facebook同事提出的一些想法來看,我花了多年時間做的所有事情-結(jié)構(gòu)化的分析技術(shù),權(quán)衡證據(jù),沒有得出結(jié)論,具有挑戰(zhàn)性的假設(shè)-都不是正常的做法,即使在解決問題時也是如此。他們制造的產(chǎn)品在現(xiàn)實世界中的后果。在很大程度上,“快速行動”文化與這些技術(shù)相反,因為在面臨重要決策時需要放慢速度。
-
算法
+關(guān)注
關(guān)注
23文章
4580瀏覽量
92354 -
Facebook
+關(guān)注
關(guān)注
3文章
1429瀏覽量
54587 -
人工智能
+關(guān)注
關(guān)注
1789文章
46392瀏覽量
236581
發(fā)布評論請先 登錄
相關(guān)推薦
評論