0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

谷歌開發(fā)者 ? 來(lái)源:未知 ? 2023-12-05 18:10 ? 次閱讀

作者 / 技術(shù)與社會(huì)部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術(shù)團(tuán)隊(duì) Marian Croak


標(biāo)準(zhǔn)基準(zhǔn)是衡量重要產(chǎn)品質(zhì)量的公認(rèn)方法,存在于許多領(lǐng)域。一些標(biāo)準(zhǔn)基準(zhǔn)用于衡量安全性:例如,當(dāng)汽車制造商宣傳 "整體安全評(píng)分五星" 時(shí),會(huì)引用某項(xiàng)基準(zhǔn)。機(jī)器學(xué)習(xí) (ML) 和 AI 技術(shù)領(lǐng)域已經(jīng)存在標(biāo)準(zhǔn)基準(zhǔn):例如,MLCommons Association 運(yùn)用 MLPerf 基準(zhǔn),來(lái)衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經(jīng)做了大量工作,目前仍然沒有類似的 AI 安全標(biāo)準(zhǔn)基準(zhǔn)。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我們很高興能夠?yàn)榉菭I(yíng)利組織 MLCommons Association 開展標(biāo)準(zhǔn) AI 安全基準(zhǔn)制定的工作提供支持。制定有效且值得信賴的基準(zhǔn),不僅要有先進(jìn)的 AI 安全測(cè)試技術(shù),還需要綜合廣泛的觀點(diǎn)。MLCommons 的工作旨在匯集學(xué)術(shù)界和業(yè)界的專家研究人員來(lái)制定衡量 AI 系統(tǒng)安全性的標(biāo)準(zhǔn)基準(zhǔn),并以每個(gè)人都能理解的分?jǐn)?shù)呈現(xiàn)。我們鼓勵(lì)社區(qū)的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項(xiàng)工作奉獻(xiàn)自己的力量。


  • 加入我們

    https://mlcommons.org/ai-safety



為什么要制定 AI 安全基準(zhǔn)?


像大多數(shù)先進(jìn)技術(shù)一樣,AI 具有帶來(lái)巨大好處的潛力,但是如果缺乏適當(dāng)?shù)募s束,也可能會(huì)導(dǎo)致負(fù)面結(jié)果。例如,AI 技術(shù)可以在各種活動(dòng)中輔助人類提高生產(chǎn)力 (如提高健康診斷的準(zhǔn)確性和研究疾病、分析能源使用情況等)。然而,如果沒有足夠的預(yù)防措施,AI 也可能被用來(lái)支持有害或惡意活動(dòng),并導(dǎo)致存在偏見或令人反感的響應(yīng)。

  • 改善健康診斷
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情況
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通過為不同類別提供標(biāo)準(zhǔn)的安全措施,如有害使用、超范圍響應(yīng)、AI 控制風(fēng)險(xiǎn)等,標(biāo)準(zhǔn)的 AI 安全基準(zhǔn)可以幫助社會(huì)從 AI 中獲益,同時(shí)確保采取足夠的預(yù)防措施來(lái)減輕這些風(fēng)險(xiǎn)。最初,新興的安全基準(zhǔn)有助于推動(dòng) AI 安全研究,并為負(fù)責(zé)任的 AI 開發(fā)提供信息。隨著時(shí)間推移和技術(shù)成熟,這些基準(zhǔn)也可以為 AI 系統(tǒng)的用戶和購(gòu)買者提供信息,最終,可能成為政策制定者的寶貴工具。


在計(jì)算機(jī)硬件領(lǐng)域,基準(zhǔn) (如 SPEC、TPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個(gè)行業(yè)能夠在追求進(jìn)步的過程中,保持研究、工程甚至營(yíng)銷部門的步調(diào)一致。我們相信,標(biāo)準(zhǔn) AI 安全基準(zhǔn)有助于在這一重要領(lǐng)域?qū)崿F(xiàn)同樣的目標(biāo)。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


標(biāo)準(zhǔn) AI 安全基準(zhǔn)是什么?


在學(xué)術(shù)研究和企業(yè)工作中,人們開展了一系列 AI 安全測(cè)試 (如 RealToxicityPrompts、Stanford HELM 公平性、偏差、毒性測(cè)量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測(cè)試都側(cè)重于為 AI 系統(tǒng)提供提示,并對(duì)輸出進(jìn)行算法評(píng)分,雖然這是一個(gè)有用的開端,但僅限于測(cè)試提示的范圍。此外,他們通常使用開放數(shù)據(jù)集進(jìn)行提示和響應(yīng),而這些提示和響應(yīng)可能已被 (通常是無(wú)意中) 納入訓(xùn)練數(shù)據(jù)中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提議,按多方利益相關(guān)者流程選擇測(cè)試,并按子集分組,以衡量特定 AI 用例的安全性,并將這些需要有專業(yè)技術(shù)背景才能理解的測(cè)試結(jié)果轉(zhuǎn)化為每個(gè)人都能理解的分?jǐn)?shù)。MLCommons 建議打造一個(gè)集中現(xiàn)有測(cè)試的平臺(tái),并鼓勵(lì)開展更嚴(yán)格的測(cè)試,以推動(dòng)先進(jìn)技術(shù)的發(fā)展。用戶既可以通過在線測(cè)試生成和查看分?jǐn)?shù),也可以借助私人測(cè)試引擎的離線測(cè)試來(lái)訪問這些測(cè)試。


共同努力下的 AI 安全基準(zhǔn)


負(fù)責(zé)任的 AI 開發(fā)者使用多種安全措施,包括自動(dòng)測(cè)試、手動(dòng)測(cè)試、紅隊(duì)測(cè)試 (red teaming,其中人類測(cè)試人員試圖產(chǎn)生對(duì)抗性結(jié)果)、軟件方面的限制、數(shù)據(jù)和模型最佳實(shí)踐以及審計(jì)。但是,確定是否已采取足夠的預(yù)防措施可能具有挑戰(zhàn)性,尤其是在開發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點(diǎn)的情況下。標(biāo)準(zhǔn) AI 基準(zhǔn)能夠提供強(qiáng)大的工具,幫助供應(yīng)商和用戶衡量 AI 安全性,以及鼓勵(lì)資源生態(tài)系統(tǒng)和專注于提高 AI 安全性的專業(yè)提供商,推進(jìn)社區(qū)以負(fù)責(zé)任的方式發(fā)展。


同時(shí),如果沒有社區(qū)參與,就無(wú)法制定成熟、有效且值得信賴的 AI 安全基準(zhǔn)。這項(xiàng)工作需要研究人員和工程師齊心協(xié)力,為安全測(cè)試技術(shù)提供創(chuàng)新且實(shí)用的改進(jìn),使測(cè)試更加嚴(yán)格高效。同樣,企業(yè)也需要團(tuán)結(jié)一致,提供測(cè)試數(shù)據(jù)、工程支持和經(jīng)濟(jì)支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識(shí)支持的可信基準(zhǔn)需要考慮多方觀點(diǎn),包括公眾代言人、政策制定者、學(xué)者、工程師、數(shù)據(jù)工作者、商界領(lǐng)袖和企業(yè)家的觀點(diǎn)。



Google 對(duì) MLCommons 的支持


Google 以 2018 年宣布AI 準(zhǔn)則為基礎(chǔ),致力于以安全、可靠和值得信賴的特定標(biāo)準(zhǔn)開發(fā)和使用 AI (您可以參閱我們 2019 年、2020 年、2021 年、2022 年的更新)。我們還在關(guān)鍵承諾方面取得了重大進(jìn)展,這將幫助您大膽且負(fù)責(zé)任地開發(fā) AI,從而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 準(zhǔn)則
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 進(jìn)展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準(zhǔn)方面所作的工作。

  1. 測(cè)試平臺(tái):我們聯(lián)合其他公司提供資金,支持測(cè)試平臺(tái)的開發(fā)。
  2. 技術(shù)專長(zhǎng)和資源:我們不斷提供技術(shù)專長(zhǎng)和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確?;鶞?zhǔn)設(shè)計(jì)優(yōu)良且有效。
  3. 數(shù)據(jù)集:我們正在為多語(yǔ)言表征偏差以及針對(duì)刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測(cè)試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負(fù)責(zé)任和包容性的方式收集人工注釋為重點(diǎn)的數(shù)據(jù)集,如 DICESSRP

  • Monk 膚色量表示例數(shù)據(jù)集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未來(lái)方向


我們相信,這些基準(zhǔn)有助于推進(jìn) AI 安全研究,確保以負(fù)責(zé)任的方式開發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動(dòng)問題。前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關(guān)系 (Partnership on AI) 等團(tuán)體也在重要的標(biāo)準(zhǔn)化舉措方面發(fā)揮著領(lǐng)導(dǎo)作用。我們很高興從一開始便與這些團(tuán)體和 MLCommons 一起開展這項(xiàng)工作,也期待通過更多的共同努力,來(lái)促進(jìn)以負(fù)責(zé)任的方式開發(fā)新的生成式 AI 工具。歡迎您持續(xù)關(guān)注我們,及時(shí)獲悉更多資訊。


  • 集體行動(dòng)問題
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型論壇
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴關(guān)系
    https://partnershiponai.org/


致謝


非常感謝為這項(xiàng)工作做出貢獻(xiàn)的 Google 團(tuán)隊(duì)成員: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

文章出處:【微信公眾號(hào):谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6106

    瀏覽量

    104809

原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    浪潮信息AS13000G7榮獲MLPerf? AI存儲(chǔ)基準(zhǔn)測(cè)試五項(xiàng)性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協(xié)會(huì)發(fā)布最新MLPerf? Storage v1.0 AI存儲(chǔ)基準(zhǔn)測(cè)試成績(jī)。浪潮信息分布式存儲(chǔ)平臺(tái)AS13000G7表現(xiàn)出
    的頭像 發(fā)表于 09-28 16:46 ?157次閱讀
    浪潮信息AS13000G7榮獲MLPerf? <b class='flag-5'>AI</b>存儲(chǔ)<b class='flag-5'>基準(zhǔn)</b>測(cè)試五項(xiàng)性能全球第一

    TDA4 Edge AI處理器的性能和效率基準(zhǔn)測(cè)試

    電子發(fā)燒友網(wǎng)站提供《TDA4 Edge AI處理器的性能和效率基準(zhǔn)測(cè)試.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:21 ?0次下載
    TDA4 Edge <b class='flag-5'>AI</b>處理器的性能和效率<b class='flag-5'>基準(zhǔn)</b>測(cè)試

    Freepik攜手Magnific AI推出AI圖像生成器

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了一個(gè)全新的高
    的頭像 發(fā)表于 08-30 16:23 ?1018次閱讀

    甲骨文攜手Rai Way,強(qiáng)化AI應(yīng)用與數(shù)據(jù)安全

    近日,全球領(lǐng)先的軟件巨頭甲骨文與意大利基礎(chǔ)設(shè)施服務(wù)提供商Rai Way宣布達(dá)成重要合作。雙方將攜手在Rai Way分布廣泛的數(shù)據(jù)中心部署甲骨文的人工智能應(yīng)用系統(tǒng),為企業(yè)客戶帶來(lái)前所未有的服務(wù)體驗(yàn)與安全保障。
    的頭像 發(fā)表于 07-27 17:19 ?2084次閱讀

    Claude安卓版發(fā)布,旨在為用戶提供信賴AI助手

     7月17日最新資訊,繼今年5月成功推出iOS版本后,Anthropic公司今日正式發(fā)布了Claude應(yīng)用的安卓版本,該應(yīng)用專為安卓8.0及以上版本設(shè)備設(shè)計(jì),旨在為用戶提供一款高效值得信賴
    的頭像 發(fā)表于 07-17 16:56 ?499次閱讀

    平衡創(chuàng)新與倫理:AI時(shí)代的隱私保護(hù)和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價(jià)值。面對(duì)這些挑戰(zhàn),制定一套有效AI治理框架和隱私保護(hù)機(jī)制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關(guān)鍵一步。透明度不僅
    發(fā)表于 07-16 15:07

    英國(guó)AI安全研究所推出AI模型安全評(píng)估平臺(tái)

    據(jù)報(bào)道,英國(guó)人工智能安全研究院近日發(fā)布了名為“Inspect”的AI模型安全評(píng)估平臺(tái),此平臺(tái)采用開源技術(shù)對(duì)全球AI工程師免費(fèi)開放,旨在提升
    的頭像 發(fā)表于 05-13 15:20 ?326次閱讀

    東軟睿馳與安霸建立戰(zhàn)略合作關(guān)系

    東軟睿馳與Ambarella(安霸)在北京車展上正式確立了一項(xiàng)重要戰(zhàn)略合作關(guān)系。雙方將攜手利用各自在汽車基礎(chǔ)軟件、自動(dòng)駕駛技術(shù)、電動(dòng)化以及芯片技術(shù)領(lǐng)域的深厚積累和優(yōu)勢(shì),共同構(gòu)建一個(gè)持久值得
    的頭像 發(fā)表于 05-09 11:14 ?461次閱讀

    值得信賴的工業(yè)主板制造商

    朗銳智科是一家值得信賴的工業(yè)主板制造商,為工業(yè)領(lǐng)域提供可靠的主板解決方案。我們的工業(yè)主板經(jīng)過嚴(yán)格的行業(yè)標(biāo)準(zhǔn)測(cè)試和驗(yàn)證,以確保其在惡劣環(huán)境下的穩(wěn)定性和耐用性。我們的產(chǎn)品具有廣泛的兼容性和可擴(kuò)展性,適合
    的頭像 發(fā)表于 04-24 11:21 ?386次閱讀
    <b class='flag-5'>值得</b><b class='flag-5'>信賴</b>的工業(yè)主板制造商

    AI安全基準(zhǔn)測(cè)試 v0.5: 聚焦通用聊天文本模型安全

    隨著AI技術(shù)的快速發(fā)展,相關(guān)安全問題也日益凸顯。僅過去數(shù)周內(nèi),便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應(yīng)對(duì)這一挑戰(zhàn),新推出的AI Safety基準(zhǔn)測(cè)試將成為模型
    的頭像 發(fā)表于 04-19 11:12 ?330次閱讀

    世界數(shù)字技術(shù)院發(fā)布:生成式AI安全測(cè)試標(biāo)準(zhǔn)及大語(yǔ)言模型

    據(jù)悉,上述兩款標(biāo)準(zhǔn)主要針對(duì)大型模型與生成式AI應(yīng)用領(lǐng)域的安全檢測(cè)設(shè)定了新基準(zhǔn)。參與制定工作的單位有OpenAI、螞蟻集團(tuán)、科大訊飛、谷歌、微軟、英偉達(dá)、百度、騰訊等多家知名企業(yè),其中,
    的頭像 發(fā)表于 04-17 16:51 ?941次閱讀

    聯(lián)想攜手京東,緊扣大模型和生成式AI技術(shù)

    聯(lián)想與京東攜手,緊扣大模型和生成式AI技術(shù)帶來(lái)的產(chǎn)業(yè)機(jī)遇,在多個(gè)領(lǐng)域展開深入合作。
    的頭像 發(fā)表于 04-12 10:27 ?572次閱讀

    UL Procyon AI 發(fā)布圖像生成基準(zhǔn)測(cè)試,基于Stable Diffusion

    UL去年發(fā)布的首個(gè)Windows版Procyon AI推理基準(zhǔn)測(cè)試,以計(jì)算機(jī)視覺工作負(fù)載評(píng)估AI推理性能。新推出的圖像生成測(cè)試將提供統(tǒng)一、精確易于理解的工作負(fù)載,用以保證各支持硬件間
    的頭像 發(fā)表于 03-25 16:16 ?791次閱讀

    AI智能網(wǎng)關(guān)如何助力?;?b class='flag-5'>安全監(jiān)測(cè)

    得益于AI技術(shù)的蓬勃發(fā)展,當(dāng)前人們可以充分利用AI技術(shù),實(shí)現(xiàn)對(duì)各類危化品的高敏感、高精度、實(shí)時(shí)可靠監(jiān)測(cè)管控,有效防范減少安全事故發(fā)生。
    的頭像 發(fā)表于 11-23 17:30 ?342次閱讀
    <b class='flag-5'>AI</b>智能網(wǎng)關(guān)如何助力?;?b class='flag-5'>安全</b>監(jiān)測(cè)

    值得信賴的搭檔:AI 軟件可確保駕駛員安全并專注于前方路況

    值得信賴的搭檔:AI 軟件可確保駕駛員安全并專注于前方路況
    的頭像 發(fā)表于 10-27 15:49 ?381次閱讀
    <b class='flag-5'>值得</b><b class='flag-5'>信賴</b>的搭檔:<b class='flag-5'>AI</b> 軟件可確保駕駛員<b class='flag-5'>安全</b>并專注于前方路況