到目前為止,幾乎所有能夠制造或管理人工智能產(chǎn)品(包括生物識別技術(shù))的組織都知道創(chuàng)建道德原則以保護(hù)強(qiáng)大技術(shù)的重要性。
當(dāng)然,認(rèn)識到對原則的需求并加以發(fā)展是兩回事。采納道德原則并實(shí)際執(zhí)行這些原則也是如此。
加州大學(xué)伯克利分校的研究人員撰寫了一份報告,重點(diǎn)介紹了在實(shí)施原則方面的值得注意的工作,并將其用作其他尋求實(shí)施的組織的指南。
該報告是由大學(xué)的長期網(wǎng)絡(luò)安全中心編寫的。它在三個實(shí)施案例研究中尋找教訓(xùn),這些案例研究涉及Microsoft公司的AI,工程與研究中的道德與影響(AETHER)委員會,非營利性研究實(shí)驗(yàn)室OpenAI Inc.和一個智囊團(tuán),經(jīng)濟(jì)合作組織與發(fā)展組織(OECD)。
報告還概述了其他35項(xiàng)正在進(jìn)行的實(shí)施原則的努力。審查的項(xiàng)目包括設(shè)計工具,框架,計劃和標(biāo)準(zhǔn),所有這些工具均旨在開發(fā)“可信賴”的AI。
在第一個案例研究中,微軟高管明確成立了AETHER委員會,以使AI工作與公司的核心價值保持一致。實(shí)際上,這是公司范圍內(nèi)的七個工作組,旨在尋找針對AI及其客戶開發(fā)和使用AI所產(chǎn)生的相應(yīng)問題的答案。
報告稱,提出的問題集中在敏感和戰(zhàn)術(shù)性話題的混合上,包括“偏見與公平,可靠性與安全以及對人權(quán)和其他危害的潛在威脅”。面部識別的懷疑論者列舉了所有這些威脅,微軟去年才實(shí)施了這些原則。
OpenAI案例研究的重點(diǎn)是去年9個月以來分階段發(fā)布的GPT-2(一種無監(jiān)督的AI語言模型)。通常,一個模型會完全發(fā)布,但是該機(jī)構(gòu)選擇了“負(fù)責(zé)任公開的實(shí)驗(yàn)”。
OpenAI領(lǐng)導(dǎo)者擔(dān)心,如果他們不刻意,他們的模型可能會被部署來綜合產(chǎn)生誤導(dǎo)性新聞,濫用內(nèi)容或網(wǎng)絡(luò)釣魚攻擊。因此,他們發(fā)布了越來越大的模型(以參數(shù)衡量)。
-
生物識別
+關(guān)注
關(guān)注
3文章
1209瀏覽量
52478 -
人工智能
+關(guān)注
關(guān)注
1789文章
46359瀏覽量
236534
發(fā)布評論請先 登錄
相關(guān)推薦
評論