0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何確保AI和機器學習項目的風險和安全性?

如意 ? 來源:企業(yè)網(wǎng)D1Net ? 作者: 作者: ? 2020-12-04 16:48 ? 次閱讀

人工智能機器學習在帶來好處的同時也帶來了新的漏洞。本文介紹了幾家公司是如何將風險降到最低的。

當企業(yè)采用了新技術時,安全性往往會被擱置一邊。盡快以最低的成本向客戶和內(nèi)部用戶提供新的產(chǎn)品或服務似乎更為重要。而良好的安全性則可能是緩慢和昂貴的。

人工智能(AI)和機器學習(ML)不僅提供了與早期技術進步相同的漏洞和錯誤配置機會,也有其獨特的風險。隨著企業(yè)開始進行以人工智能為動力的數(shù)字化轉(zhuǎn)型,這些風險可能會變得更大?!斑@不是一個很好的搶占領域。”Booz Allen Hamilton的首席科學家Edward Raff說。

與其他技術相比,AI和ML需要更多的數(shù)據(jù)以及更復雜的數(shù)據(jù)。數(shù)學家和數(shù)據(jù)科學家所開發(fā)的算法是從研究項目中走出來的?!拔覀冎皇亲罱砰_始從一個科學界的角度來理解人工智能所存在安全問題?!盧aff說。

數(shù)量和處理需求也意味著云平臺通常還要繼續(xù)處理工作負載,這增加了另一個級別的復雜性和脆弱性。對于人工智能使用者來說,網(wǎng)絡安全是最令人擔憂的風險,這一點也不奇怪。德勤在2020年7月發(fā)布的一項調(diào)查顯示,62%的采訪者認為網(wǎng)絡安全風險是一個重大或極端問題,但只有39%的人表示他們已經(jīng)準備好應對這些風險。

使問題變得更加復雜的是,網(wǎng)絡安全也是人工智能最重要的功能之一。德勤的技術、媒體和電信中心執(zhí)行董事Jeff Loucks表示,與人工智能合作的組織越有經(jīng)驗,他們就越擔心網(wǎng)絡安全風險。

此外,企業(yè),即使是更有經(jīng)驗的企業(yè),也沒有能夠遵循的基本安全實踐,例如保留所有人工智能和最大限度語言項目的完整清單或是進行審計和測試?!肮粳F(xiàn)在在實施這些措施方面做得并不好?!盠oucks說。

由AI和ML的數(shù)據(jù)需求所帶來的風險

AI和ML系統(tǒng)需要三組數(shù)據(jù):

?建立預測模型的訓練數(shù)據(jù)

?評估模型工作情況的測試數(shù)據(jù)

?當模型投入工作時,實時的業(yè)務或運營數(shù)據(jù)

雖然實時的業(yè)務或運營數(shù)據(jù)顯然是一項寶貴的公司資產(chǎn),但也很容易忽略其中包含敏感信息的訓練和測試數(shù)據(jù)池。

許多用于保護其他系統(tǒng)中數(shù)據(jù)的原則也可以應用于AI和ML項目,包括匿名化、令牌化和加密。第一步是詢問是否真的需要數(shù)據(jù)。在為AI和ML項目做準備時,收集所有可能的數(shù)據(jù),然后看看能用它們做些什么是很誘人的。

關注業(yè)務成果可以幫助企業(yè)將收集的數(shù)據(jù)限制在需要的范圍之內(nèi)?!皵?shù)據(jù)科學團隊可能非常渴望數(shù)據(jù)。”為教育機構分析學生數(shù)據(jù)的Othot公司首席技術官John Abbatico表示。“我們在處理學生數(shù)據(jù)時明確表示,高度敏感的PII[個人身份信息]是不需要的,也不應包含在提供給我們團隊的數(shù)據(jù)當中?!?/p>

當然,錯誤確實會發(fā)生。例如,客戶有時會提供敏感的個人信息,如社會保險號碼。這些信息不會提高模型的性能,但卻會產(chǎn)生額外的風險。Abbatico說他的團隊有一個程序來識別PII,從所有系統(tǒng)中清除它,并將錯誤通知給客戶?!拔覀儾徽J為這是一起安全事件,但我們的做法會讓它看起來像是?!?/p>

人工智能系統(tǒng)也需要情境化的數(shù)據(jù),這會大大增加公司的風險敞口。假設一家保險公司希望更好地掌握其客戶的駕駛習慣,它可以購買購物、駕駛、位置和其他的數(shù)據(jù)集,這些數(shù)據(jù)集可以很容易地相互關聯(lián)并與客戶賬戶相匹配。這種新的、指數(shù)級的豐富數(shù)據(jù)集對黑客也更有吸引力,如果被攻破,對公司的聲譽也更具破壞性。

人工智能的安全性設計

在線文件共享平臺Box是一家需要保護大量數(shù)據(jù)的公司。Box正在使用AI來提取元數(shù)據(jù),以提高搜索、分類等能力?!袄?,我們可以從合同中提取條款、續(xù)約和定價信息?!盉ox的CISO Lakshmi Hanspal說?!拔覀兊拇蠖鄶?shù)客戶大都來自這樣一個時代,他們的內(nèi)容分類要么是用戶定義的,要么是完全被忽視的。他們坐擁的數(shù)據(jù)堆積如山,這些數(shù)據(jù)可能對數(shù)字化轉(zhuǎn)型有用--如果內(nèi)容能夠被分類、自我感知,而不需要等待人類行動的話?!?/p>

Hanspal說,保護數(shù)據(jù)是Box的一個關鍵支柱,同樣的數(shù)據(jù)保護標準也適用于人工智能系統(tǒng),包括訓練數(shù)據(jù)。“在Box,我們相信我們建立的是信任,我們銷售的是信任,我們維護的也是信任。我們堅信,這需要融入我們?yōu)楹献骰锇楹涂蛻籼峁┑漠a(chǎn)品當中,而不是被捆綁在一起?!?/p>

這意味著所有系統(tǒng),包括新的人工智能項目,都應該是圍繞核心數(shù)據(jù)安全原則而構建的,包括加密、日志記錄、監(jiān)控、身份驗證和訪問控制。“數(shù)字信任是我們平臺與生俱來的,我們需要將它付諸實踐。”Hanspal說。

Box為傳統(tǒng)代碼和新的AI和ML驅(qū)動的系統(tǒng)提供了一個安全的開發(fā)流程。“我們在開發(fā)安全產(chǎn)品方面符合國際標準化組織的行業(yè)標準,”Hanspal說。“基于設計的安全性是內(nèi)置的,并且存在著制衡機制,包括滲透測試和紅隊測試。這是一個標準的流程,AI和ML項目不會有什么不同?!?/p>

數(shù)學家和數(shù)據(jù)科學家在編寫AI和ML算法代碼時,一般不需要擔心潛在的漏洞。企業(yè)在構建AI系統(tǒng)時,會借鑒可用的開源算法,使用商業(yè)“黑盒”AI系統(tǒng),或者從頭構建自己的系統(tǒng)。

使用開放源代碼,攻擊者就有可能在惡意代碼中溜走,或者代碼中包含漏洞或脆弱的依賴關系。專有商業(yè)系統(tǒng)也會使用開源代碼,再加上企業(yè)客戶通??床坏降男麓a。

逆向攻擊是一個主要威脅

AI和ML系統(tǒng)通常是開源庫和非安全工程師所創(chuàng)建的新編寫代碼的組合。另外,在編寫安全人工智能算法方面,也沒有標準的最佳實踐。鑒于安全專家和數(shù)據(jù)科學家的短缺,這兩方面的專家甚至會更少。

AI和ML算法最大的潛在風險之一,也是Booz Allen Hamilton的Raff最為關注的長期威脅之一,就是訓練數(shù)據(jù)泄露給攻擊者的可能性?!坝辛四嫦蚬?,你就可以讓人工智能模型給你關于它自己和它被訓練的信息?!彼f?!叭绻窃赑II數(shù)據(jù)上訓練出來的,你就可以讓模型把那些信息泄露給你。實際的PII可能會暴露出來?!?/p>

Raff說,這是一個需要積極研究的領域,也是一個巨大的潛在痛點。一些工具可以保護訓練數(shù)據(jù)免受逆向攻擊 ,但是它們太昂貴了?!拔覀冎廊绾巫柚惯@種情況,但這樣做會使模型的訓練成本增加100倍?!彼f?!斑@不是我夸大其詞。訓練模型的成本和時間都會高出100倍,所以沒人會這么做?!?/p>

你無法保護你無法解釋的東西

另一個研究領域是可解釋性。今天,許多人工智能和移動計算系統(tǒng)--包括許多主要網(wǎng)絡安全供應商所提供的人工智能和移動計算工具--都是“黑盒”系統(tǒng)?!肮虥]有建立起可解釋性,”YL Ventures的常駐CISO Sounil Yu說?!霸诎踩I域,能夠解釋發(fā)生了什么是一個基本的組成部分。如果我不能解釋為什么會發(fā)生,我該如何解決它呢?”

對于那些能夠構建起自己的AI或ML系統(tǒng)的公司來說,當出現(xiàn)問題時,他們可以返回到訓練數(shù)據(jù)或所使用的算法,并修復問題?!叭绻闶菑膭e人那里建立起來的,你就根本不知道培訓數(shù)據(jù)是什么。”Yu說。

需要保護的不僅僅是算法

人工智能系統(tǒng)不僅僅是一個自然語言處理引擎,也不僅僅是一個分類算法,或者僅僅是一個神經(jīng)網(wǎng)絡。即使這些部分是完全安全的,系統(tǒng)仍然需要與用戶和后端平臺交互。

系統(tǒng)是否使用了強認證和最小特權原則?后端數(shù)據(jù)庫的連接安全嗎?與第三方數(shù)據(jù)源的連接又如何?用戶界面是否具有抗注入攻擊的彈性?

另一個與人有關的不安全感來源是人工智能和人工智能項目所獨有的:數(shù)據(jù)科學家?!八麄儾粫o緣無故地被稱為科學家,”O(jiān)thot的Abbatico說。“優(yōu)秀的數(shù)據(jù)科學家能夠利用數(shù)據(jù)進行實驗,從而得出有洞察力的模型。然而,在數(shù)據(jù)安全方面,實驗可能會導致危險的行為?!彼麄兛赡軙谔幚硗陻?shù)據(jù)后,試圖將數(shù)據(jù)移動到不安全的位置或刪除樣本數(shù)據(jù)集。Othot在早期就投資獲得了SOC II認證,這些控制有助于在整個公司內(nèi)實施強而有力的數(shù)據(jù)保護實踐,包括在移動或刪除數(shù)據(jù)方面。

“事實上,世界各地大多數(shù)人工智能模型的最大風險并不在人工智能中,”人工智能機構Urvin AI的產(chǎn)品經(jīng)理、國際非盈利安全研究機構ISECOM的聯(lián)合創(chuàng)始人Peter Herzog說。他說,問題出在人的身上。“沒有一個人工智能模型是沒有安全問題的,因為是人們決定了如何訓練他們,是人們決定了包括什么數(shù)據(jù),是人們決定了他們想要預測什么,是人們決定了暴露多少信息?!?/p>

AI和ML系統(tǒng)特有的另一個安全風險是數(shù)據(jù)中毒,攻擊者會將信息饋送到系統(tǒng)中,迫使系統(tǒng)做出不準確的預測。例如,攻擊者可以通過向系統(tǒng)提供具有與惡意軟件類似指標的合法軟件示例,誘使系統(tǒng)認為惡意軟件是安全的。

Raff說,這是大多數(shù)組織高度關注的問題?!艾F(xiàn)在,我還不知道有任何人工智能系統(tǒng)在現(xiàn)實生活中受到了攻擊,”他說?!斑@是一個真正的威脅,但現(xiàn)在攻擊者用來逃避殺毒的經(jīng)典工具仍然有效,所以他們不需要變得更加花哨?!?/p>

避免偏差和模型漂移

當AI和ML系統(tǒng)用于企業(yè)安全(例如,用戶行為分析、監(jiān)控網(wǎng)絡流量或檢查數(shù)據(jù)過濾)時,偏差和模型漂移也會帶來潛在風險。低估特定攻擊或很快過時的訓練數(shù)據(jù)集會使組織易受攻擊,尤其是在越來越依賴人工智能進行防御的情況下?!澳阈枰粩喔履愕哪P?,”Raff說?!澳阈枰屗蔀橐粋€連續(xù)的東西?!?/p>

在某些情況下,訓練可以是自動的。例如,使模型適應不斷變化的天氣模式或供應鏈交付時間表,可以幫助它隨著時間的推移而變得更加可靠。當信息源涉及惡意參與者時,就需要小心的管理訓練數(shù)據(jù)集,以避免中毒和被操縱。

企業(yè)已經(jīng)在處理產(chǎn)生倫理問題的算法了,比如當進行面部識別或招聘平臺歧視女性或少數(shù)民族時。當偏見滲透到算法中時,它也會產(chǎn)生合規(guī)性的問題,而在自動駕駛汽車和醫(yī)療應用的情況下,甚至還會導致人員死亡。

就像算法可以在預測中注入偏差一樣,它們也可以用來控制偏差。例如,Othot在幫助大學實現(xiàn)優(yōu)化班級規(guī)?;?qū)崿F(xiàn)財務目標等。在沒有適當約束的情況下創(chuàng)建模型就很容易產(chǎn)生偏見,Othot的Abbatico說?!皩ζ姷暮怂阈枰忧趭^。添加與多樣性相關的目標將有助于建模理解目標,以及消除偏差,如果不將多樣性目標作為約束條件納入數(shù)據(jù)錄取中,這種偏見就很容易被納入?!?/p>

AI的未來是陰云密布的

AI和ML系統(tǒng)需要大量的數(shù)據(jù)、復雜的算法和強大的處理器,以便在需要時進行擴展。所有主要的云供應商都致力于提供一個數(shù)據(jù)科學平臺,將一切都放在一個方便的地方。這意味著數(shù)據(jù)科學家將不需要等待IT來為他們提供服務器。他們只要上網(wǎng),填幾張表格,然后就可以開始做生意了。

根據(jù)德勤的人工智能調(diào)查,93%的企業(yè)正在使用某種形式的云計算人工智能?!斑@會讓入門變得更容易,”德勤的Loucks說。這些項目隨后變成了操作系統(tǒng),而隨著規(guī)模的擴大,配置問題也成倍增加。有了最新的服務,集中式、自動化的配置和安全管理儀表板就可能不再可用,公司必須自己編寫,或者等待供應商來填補空白。

當使用系統(tǒng)的人是公民數(shù)據(jù)科學家或理論研究人員時,因為他們沒有強大的安全背景,就可能會是一個問題。此外,供應商歷來都是首先會推出新的功能,其次才是安全性。當系統(tǒng)快速被部署,然后更快速地進行擴展時,就可能是一個問題。我們已經(jīng)在物聯(lián)網(wǎng)設備、云存儲和容器上看到了這種情況。

人工智能平臺供應商越來越意識到了這種威脅,并從錯誤中吸取了教訓,Raff說。“考慮到歷史上‘安全第一’的思維方式,我看到包括安全在內(nèi)的計劃會比我們預期的來的更加積極,”他說。“ML社區(qū)對此也比較關注,滯后時間可能會更短?!?/p>

德勤的首席人工智能聯(lián)席主管Irfan Saif對此表示贊同,尤其是在支持大型企業(yè)人工智能工作負載的主要云平臺方面?!拔視f,是的,就網(wǎng)絡安全能力的發(fā)展而言,它們可能會比以前的技術更加成熟。”

人工智能項目的安全清單

以下清單有助于確保人工智能項目的安全,來自德勤的企業(yè)人工智能現(xiàn)狀第三版:

?保留一個所有人工智能實現(xiàn)的正式清單

?將AI風險管理與更廣泛的風險管理努力相結(jié)合

?由一名高管來負責人工智能的相關風險

?進行內(nèi)部審計和測試

?使用外部供應商進行獨立審計和測試

?培訓從業(yè)人員如何認識和解決人工智能的道德問題

?與外部各方合作,建立領先的人工智能道德規(guī)范

?確保AI供應商提供無偏見的系統(tǒng)

?建立政策或董事會來指導人工智能倫理
責編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 安全性
    +關注

    關注

    0

    文章

    93

    瀏覽量

    19113
  • AI
    AI
    +關注

    關注

    87

    文章

    29381

    瀏覽量

    267663
  • 機器學習
    +關注

    關注

    66

    文章

    8323

    瀏覽量

    132165
收藏 人收藏

    評論

    相關推薦

    如何保證汽車遠程信息系統(tǒng)的安全性

    設計必須面對的技術問題。但是,嵌入式系統(tǒng)開發(fā)工程師為了確保始終如一的可靠工作和安全性,通常要付出陡然增加的成本并以延遲上市時間為代價。   &
    發(fā)表于 08-28 12:38

    大型軟件研發(fā)項目安全性風險定量分析理論模型

    安全可靠性。因此,該定量方法能夠有效地控制大型軟件研發(fā)項目的安全性問題,不僅有效而且可行。【關鍵詞】:大型應用軟件;;軟件安全性;;風險
    發(fā)表于 04-24 09:54

    邊緣智能的邊緣節(jié)點安全性

    情況下,本來安全的網(wǎng)絡和節(jié)點還必須與已有舊網(wǎng)絡進行互操作,而這種老式網(wǎng)絡本身的安全性可能要差很多。這就帶來一個新問題:最弱的安全風險可能超出了工業(yè)物聯(lián)網(wǎng)系統(tǒng)的影響范圍。在這種情況下,工
    發(fā)表于 10-22 16:52

    安全閃存鑄就高安全性智能卡

    的關鍵措施,確保閃存安全:? 安全的鎖定機制可保護最終編程的存儲內(nèi)容免受攻擊,目的是讓閃存具備與固定式掩模ROM同樣的安全性。?
    發(fā)表于 12-07 10:19

    人機交互系統(tǒng)安全性設計考慮

    的重點是人與機器能準確方便地交流信息。用戶面板的輸入是隨機的,操作次序或組合可能是很多樣的,用戶操作可能是錯誤的,如何降低用戶操作的出錯幾率和如何降低誤操作帶來的風險就是人機交互系統(tǒng)安全性設計考慮
    發(fā)表于 05-13 07:00

    各國汽車安全性怎么測試

    ,很多國家和廠商的汽車安全性都是一般般的。除了每個國家都有的NCAP,還有一個世界NCAP組織。它是2011年由NCAP施行的各個國家組成的協(xié)會。他會對NCAP評價項目進行公開。IIHS Safety
    發(fā)表于 05-16 06:11

    AI:對物聯(lián)網(wǎng)安全的影響

    將提高未來側(cè)通道攻擊的質(zhì)量。為了防止新的,有效的AI和ML技術的出現(xiàn)改變權力平衡,我們必須關注如何利用人工智能來提高系統(tǒng)安全性和數(shù)據(jù)隱私。ML如何增加系統(tǒng)安全性基于ML的安全性的一個很
    發(fā)表于 05-29 10:47

    機器學習可以有效的控制物聯(lián)網(wǎng)應用的安全性

    隨著這個智能物聯(lián)的時代不斷前行,不僅僅帶來無限的便捷,同時也帶來了網(wǎng)絡安全的隱患。面對這一難題,其實機器學習可以有效的控制物聯(lián)網(wǎng)應用的安全性。
    發(fā)表于 11-03 09:09

    人工智能和機器學習提高網(wǎng)絡安全性的方法

    人工智能和機器學習可以幫助組織提高網(wǎng)絡安全性的一些方法
    發(fā)表于 01-25 06:25

    機器學習和人工智能如何改善網(wǎng)絡安全性

    網(wǎng)絡攻擊活動如今日益猖獗,以至于組織采用的安全工具很難保護其業(yè)務并打擊網(wǎng)絡攻擊者。采用機器學習和人工智能技術可以改善網(wǎng)絡安全性。
    發(fā)表于 01-31 07:59 ?6次下載
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和人工智能如何改善網(wǎng)絡<b class='flag-5'>安全性</b>

    機器學習領域下安全性的延展——對抗學習

    ,可以將其二人提出的問題定義為機器學習安全和隱私問題。在機器學習發(fā)展與完善的過程中,安全問題同
    的頭像 發(fā)表于 04-01 16:04 ?4495次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>領域下<b class='flag-5'>安全性</b>的延展——對抗<b class='flag-5'>學習</b>

    如何確保遠程桌面的安全性

    如何確保遠程桌面的安全性?首先,挑選一款合適的遠程桌面解決方案,替換掉RDP 和VPN;其次,檢查是否已采用下文列出的幾個安全性最佳實踐。
    的頭像 發(fā)表于 05-16 15:44 ?1577次閱讀

    SDWAN技術是否會增加網(wǎng)絡安全風險?SD-WAN如何確保網(wǎng)絡通信的安全性

    SDWAN技術是否會增加網(wǎng)絡安全風險?SD-WAN如何確保網(wǎng)絡通信的安全性? SDWAN技術的廣泛應用為企業(yè)網(wǎng)絡帶來了更大的靈活性和可擴展性,但同時也帶來了一些
    的頭像 發(fā)表于 03-27 16:57 ?728次閱讀

    FMEA與機器人:如何確保機器人技術的可靠安全性

    隨著科技的飛速發(fā)展,機器人技術已經(jīng)廣泛應用于各個領域,從工業(yè)生產(chǎn)到醫(yī)療服務,再到家庭生活,機器人的身影無處不在。然而,隨著機器人的普及,其潛在的風險和故障也逐漸顯現(xiàn)。為了
    的頭像 發(fā)表于 04-12 10:07 ?428次閱讀

    NFC風險安全性:揭示NFC技術高安全性的真相

    在數(shù)字化日益普及的今天,NFC(近場通信)技術因其便捷和高效而被廣泛應用。然而,當提及NFC時,一些人可能會聯(lián)想到潛在的風險。本文將深入探討NFC風險,并強調(diào)其高
    的頭像 發(fā)表于 06-29 13:03 ?663次閱讀