人工智能和機器學習在帶來好處的同時也帶來了新的漏洞。本文介紹了幾家公司是如何將風險降到最低的。
當企業(yè)采用了新技術時,安全性往往會被擱置一邊。盡快以最低的成本向客戶和內(nèi)部用戶提供新的產(chǎn)品或服務似乎更為重要。而良好的安全性則可能是緩慢和昂貴的。
人工智能(AI)和機器學習(ML)不僅提供了與早期技術進步相同的漏洞和錯誤配置機會,也有其獨特的風險。隨著企業(yè)開始進行以人工智能為動力的數(shù)字化轉(zhuǎn)型,這些風險可能會變得更大?!斑@不是一個很好的搶占領域。”Booz Allen Hamilton的首席科學家Edward Raff說。
與其他技術相比,AI和ML需要更多的數(shù)據(jù)以及更復雜的數(shù)據(jù)。數(shù)學家和數(shù)據(jù)科學家所開發(fā)的算法是從研究項目中走出來的?!拔覀冎皇亲罱砰_始從一個科學界的角度來理解人工智能所存在安全問題?!盧aff說。
數(shù)量和處理需求也意味著云平臺通常還要繼續(xù)處理工作負載,這增加了另一個級別的復雜性和脆弱性。對于人工智能使用者來說,網(wǎng)絡安全是最令人擔憂的風險,這一點也不奇怪。德勤在2020年7月發(fā)布的一項調(diào)查顯示,62%的采訪者認為網(wǎng)絡安全風險是一個重大或極端問題,但只有39%的人表示他們已經(jīng)準備好應對這些風險。
使問題變得更加復雜的是,網(wǎng)絡安全也是人工智能最重要的功能之一。德勤的技術、媒體和電信中心執(zhí)行董事Jeff Loucks表示,與人工智能合作的組織越有經(jīng)驗,他們就越擔心網(wǎng)絡安全風險。
此外,企業(yè),即使是更有經(jīng)驗的企業(yè),也沒有能夠遵循的基本安全實踐,例如保留所有人工智能和最大限度語言項目的完整清單或是進行審計和測試?!肮粳F(xiàn)在在實施這些措施方面做得并不好?!盠oucks說。
由AI和ML的數(shù)據(jù)需求所帶來的風險
AI和ML系統(tǒng)需要三組數(shù)據(jù):
?建立預測模型的訓練數(shù)據(jù)
?評估模型工作情況的測試數(shù)據(jù)
?當模型投入工作時,實時的業(yè)務或運營數(shù)據(jù)
雖然實時的業(yè)務或運營數(shù)據(jù)顯然是一項寶貴的公司資產(chǎn),但也很容易忽略其中包含敏感信息的訓練和測試數(shù)據(jù)池。
許多用于保護其他系統(tǒng)中數(shù)據(jù)的原則也可以應用于AI和ML項目,包括匿名化、令牌化和加密。第一步是詢問是否真的需要數(shù)據(jù)。在為AI和ML項目做準備時,收集所有可能的數(shù)據(jù),然后看看能用它們做些什么是很誘人的。
關注業(yè)務成果可以幫助企業(yè)將收集的數(shù)據(jù)限制在需要的范圍之內(nèi)?!皵?shù)據(jù)科學團隊可能非常渴望數(shù)據(jù)。”為教育機構分析學生數(shù)據(jù)的Othot公司首席技術官John Abbatico表示。“我們在處理學生數(shù)據(jù)時明確表示,高度敏感的PII[個人身份信息]是不需要的,也不應包含在提供給我們團隊的數(shù)據(jù)當中?!?/p>
當然,錯誤確實會發(fā)生。例如,客戶有時會提供敏感的個人信息,如社會保險號碼。這些信息不會提高模型的性能,但卻會產(chǎn)生額外的風險。Abbatico說他的團隊有一個程序來識別PII,從所有系統(tǒng)中清除它,并將錯誤通知給客戶?!拔覀儾徽J為這是一起安全事件,但我們的做法會讓它看起來像是?!?/p>
人工智能系統(tǒng)也需要情境化的數(shù)據(jù),這會大大增加公司的風險敞口。假設一家保險公司希望更好地掌握其客戶的駕駛習慣,它可以購買購物、駕駛、位置和其他的數(shù)據(jù)集,這些數(shù)據(jù)集可以很容易地相互關聯(lián)并與客戶賬戶相匹配。這種新的、指數(shù)級的豐富數(shù)據(jù)集對黑客也更有吸引力,如果被攻破,對公司的聲譽也更具破壞性。
人工智能的安全性設計
在線文件共享平臺Box是一家需要保護大量數(shù)據(jù)的公司。Box正在使用AI來提取元數(shù)據(jù),以提高搜索、分類等能力?!袄?,我們可以從合同中提取條款、續(xù)約和定價信息?!盉ox的CISO Lakshmi Hanspal說?!拔覀兊拇蠖鄶?shù)客戶大都來自這樣一個時代,他們的內(nèi)容分類要么是用戶定義的,要么是完全被忽視的。他們坐擁的數(shù)據(jù)堆積如山,這些數(shù)據(jù)可能對數(shù)字化轉(zhuǎn)型有用--如果內(nèi)容能夠被分類、自我感知,而不需要等待人類行動的話?!?/p>
Hanspal說,保護數(shù)據(jù)是Box的一個關鍵支柱,同樣的數(shù)據(jù)保護標準也適用于人工智能系統(tǒng),包括訓練數(shù)據(jù)。“在Box,我們相信我們建立的是信任,我們銷售的是信任,我們維護的也是信任。我們堅信,這需要融入我們?yōu)楹献骰锇楹涂蛻籼峁┑漠a(chǎn)品當中,而不是被捆綁在一起?!?/p>
這意味著所有系統(tǒng),包括新的人工智能項目,都應該是圍繞核心數(shù)據(jù)安全原則而構建的,包括加密、日志記錄、監(jiān)控、身份驗證和訪問控制。“數(shù)字信任是我們平臺與生俱來的,我們需要將它付諸實踐。”Hanspal說。
Box為傳統(tǒng)代碼和新的AI和ML驅(qū)動的系統(tǒng)提供了一個安全的開發(fā)流程。“我們在開發(fā)安全產(chǎn)品方面符合國際標準化組織的行業(yè)標準,”Hanspal說。“基于設計的安全性是內(nèi)置的,并且存在著制衡機制,包括滲透測試和紅隊測試。這是一個標準的流程,AI和ML項目不會有什么不同?!?/p>
數(shù)學家和數(shù)據(jù)科學家在編寫AI和ML算法代碼時,一般不需要擔心潛在的漏洞。企業(yè)在構建AI系統(tǒng)時,會借鑒可用的開源算法,使用商業(yè)“黑盒”AI系統(tǒng),或者從頭構建自己的系統(tǒng)。
使用開放源代碼,攻擊者就有可能在惡意代碼中溜走,或者代碼中包含漏洞或脆弱的依賴關系。專有商業(yè)系統(tǒng)也會使用開源代碼,再加上企業(yè)客戶通??床坏降男麓a。
逆向攻擊是一個主要威脅
AI和ML系統(tǒng)通常是開源庫和非安全工程師所創(chuàng)建的新編寫代碼的組合。另外,在編寫安全人工智能算法方面,也沒有標準的最佳實踐。鑒于安全專家和數(shù)據(jù)科學家的短缺,這兩方面的專家甚至會更少。
AI和ML算法最大的潛在風險之一,也是Booz Allen Hamilton的Raff最為關注的長期威脅之一,就是訓練數(shù)據(jù)泄露給攻擊者的可能性?!坝辛四嫦蚬?,你就可以讓人工智能模型給你關于它自己和它被訓練的信息?!彼f?!叭绻窃赑II數(shù)據(jù)上訓練出來的,你就可以讓模型把那些信息泄露給你。實際的PII可能會暴露出來?!?/p>
Raff說,這是一個需要積極研究的領域,也是一個巨大的潛在痛點。一些工具可以保護訓練數(shù)據(jù)免受逆向攻擊 ,但是它們太昂貴了?!拔覀冎廊绾巫柚惯@種情況,但這樣做會使模型的訓練成本增加100倍?!彼f?!斑@不是我夸大其詞。訓練模型的成本和時間都會高出100倍,所以沒人會這么做?!?/p>
你無法保護你無法解釋的東西
另一個研究領域是可解釋性。今天,許多人工智能和移動計算系統(tǒng)--包括許多主要網(wǎng)絡安全供應商所提供的人工智能和移動計算工具--都是“黑盒”系統(tǒng)?!肮虥]有建立起可解釋性,”YL Ventures的常駐CISO Sounil Yu說?!霸诎踩I域,能夠解釋發(fā)生了什么是一個基本的組成部分。如果我不能解釋為什么會發(fā)生,我該如何解決它呢?”
對于那些能夠構建起自己的AI或ML系統(tǒng)的公司來說,當出現(xiàn)問題時,他們可以返回到訓練數(shù)據(jù)或所使用的算法,并修復問題?!叭绻闶菑膭e人那里建立起來的,你就根本不知道培訓數(shù)據(jù)是什么。”Yu說。
需要保護的不僅僅是算法
人工智能系統(tǒng)不僅僅是一個自然語言處理引擎,也不僅僅是一個分類算法,或者僅僅是一個神經(jīng)網(wǎng)絡。即使這些部分是完全安全的,系統(tǒng)仍然需要與用戶和后端平臺交互。
系統(tǒng)是否使用了強認證和最小特權原則?后端數(shù)據(jù)庫的連接安全嗎?與第三方數(shù)據(jù)源的連接又如何?用戶界面是否具有抗注入攻擊的彈性?
另一個與人有關的不安全感來源是人工智能和人工智能項目所獨有的:數(shù)據(jù)科學家?!八麄儾粫o緣無故地被稱為科學家,”O(jiān)thot的Abbatico說。“優(yōu)秀的數(shù)據(jù)科學家能夠利用數(shù)據(jù)進行實驗,從而得出有洞察力的模型。然而,在數(shù)據(jù)安全方面,實驗可能會導致危險的行為?!彼麄兛赡軙谔幚硗陻?shù)據(jù)后,試圖將數(shù)據(jù)移動到不安全的位置或刪除樣本數(shù)據(jù)集。Othot在早期就投資獲得了SOC II認證,這些控制有助于在整個公司內(nèi)實施強而有力的數(shù)據(jù)保護實踐,包括在移動或刪除數(shù)據(jù)方面。
“事實上,世界各地大多數(shù)人工智能模型的最大風險并不在人工智能中,”人工智能機構Urvin AI的產(chǎn)品經(jīng)理、國際非盈利安全研究機構ISECOM的聯(lián)合創(chuàng)始人Peter Herzog說。他說,問題出在人的身上。“沒有一個人工智能模型是沒有安全問題的,因為是人們決定了如何訓練他們,是人們決定了包括什么數(shù)據(jù),是人們決定了他們想要預測什么,是人們決定了暴露多少信息?!?/p>
AI和ML系統(tǒng)特有的另一個安全風險是數(shù)據(jù)中毒,攻擊者會將信息饋送到系統(tǒng)中,迫使系統(tǒng)做出不準確的預測。例如,攻擊者可以通過向系統(tǒng)提供具有與惡意軟件類似指標的合法軟件示例,誘使系統(tǒng)認為惡意軟件是安全的。
Raff說,這是大多數(shù)組織高度關注的問題?!艾F(xiàn)在,我還不知道有任何人工智能系統(tǒng)在現(xiàn)實生活中受到了攻擊,”他說?!斑@是一個真正的威脅,但現(xiàn)在攻擊者用來逃避殺毒的經(jīng)典工具仍然有效,所以他們不需要變得更加花哨?!?/p>
避免偏差和模型漂移
當AI和ML系統(tǒng)用于企業(yè)安全(例如,用戶行為分析、監(jiān)控網(wǎng)絡流量或檢查數(shù)據(jù)過濾)時,偏差和模型漂移也會帶來潛在風險。低估特定攻擊或很快過時的訓練數(shù)據(jù)集會使組織易受攻擊,尤其是在越來越依賴人工智能進行防御的情況下?!澳阈枰粩喔履愕哪P?,”Raff說?!澳阈枰屗蔀橐粋€連續(xù)的東西?!?/p>
在某些情況下,訓練可以是自動的。例如,使模型適應不斷變化的天氣模式或供應鏈交付時間表,可以幫助它隨著時間的推移而變得更加可靠。當信息源涉及惡意參與者時,就需要小心的管理訓練數(shù)據(jù)集,以避免中毒和被操縱。
企業(yè)已經(jīng)在處理產(chǎn)生倫理問題的算法了,比如當進行面部識別或招聘平臺歧視女性或少數(shù)民族時。當偏見滲透到算法中時,它也會產(chǎn)生合規(guī)性的問題,而在自動駕駛汽車和醫(yī)療應用的情況下,甚至還會導致人員死亡。
就像算法可以在預測中注入偏差一樣,它們也可以用來控制偏差。例如,Othot在幫助大學實現(xiàn)優(yōu)化班級規(guī)?;?qū)崿F(xiàn)財務目標等。在沒有適當約束的情況下創(chuàng)建模型就很容易產(chǎn)生偏見,Othot的Abbatico說?!皩ζ姷暮怂阈枰忧趭^。添加與多樣性相關的目標將有助于建模理解目標,以及消除偏差,如果不將多樣性目標作為約束條件納入數(shù)據(jù)錄取中,這種偏見就很容易被納入?!?/p>
AI的未來是陰云密布的
AI和ML系統(tǒng)需要大量的數(shù)據(jù)、復雜的算法和強大的處理器,以便在需要時進行擴展。所有主要的云供應商都致力于提供一個數(shù)據(jù)科學平臺,將一切都放在一個方便的地方。這意味著數(shù)據(jù)科學家將不需要等待IT來為他們提供服務器。他們只要上網(wǎng),填幾張表格,然后就可以開始做生意了。
根據(jù)德勤的人工智能調(diào)查,93%的企業(yè)正在使用某種形式的云計算人工智能?!斑@會讓入門變得更容易,”德勤的Loucks說。這些項目隨后變成了操作系統(tǒng),而隨著規(guī)模的擴大,配置問題也成倍增加。有了最新的服務,集中式、自動化的配置和安全管理儀表板就可能不再可用,公司必須自己編寫,或者等待供應商來填補空白。
當使用系統(tǒng)的人是公民數(shù)據(jù)科學家或理論研究人員時,因為他們沒有強大的安全背景,就可能會是一個問題。此外,供應商歷來都是首先會推出新的功能,其次才是安全性。當系統(tǒng)快速被部署,然后更快速地進行擴展時,就可能是一個問題。我們已經(jīng)在物聯(lián)網(wǎng)設備、云存儲和容器上看到了這種情況。
人工智能平臺供應商越來越意識到了這種威脅,并從錯誤中吸取了教訓,Raff說。“考慮到歷史上‘安全第一’的思維方式,我看到包括安全在內(nèi)的計劃會比我們預期的來的更加積極,”他說。“ML社區(qū)對此也比較關注,滯后時間可能會更短?!?/p>
德勤的首席人工智能聯(lián)席主管Irfan Saif對此表示贊同,尤其是在支持大型企業(yè)人工智能工作負載的主要云平臺方面?!拔視f,是的,就網(wǎng)絡安全能力的發(fā)展而言,它們可能會比以前的技術更加成熟。”
人工智能項目的安全清單
以下清單有助于確保人工智能項目的安全,來自德勤的企業(yè)人工智能現(xiàn)狀第三版:
?保留一個所有人工智能實現(xiàn)的正式清單
?將AI風險管理與更廣泛的風險管理努力相結(jié)合
?由一名高管來負責人工智能的相關風險
?進行內(nèi)部審計和測試
?使用外部供應商進行獨立審計和測試
?培訓從業(yè)人員如何認識和解決人工智能的道德問題
?與外部各方合作,建立領先的人工智能道德規(guī)范
?確保AI供應商提供無偏見的系統(tǒng)
?建立政策或董事會來指導人工智能倫理
責編AJX
-
安全性
+關注
關注
0文章
93瀏覽量
19113 -
AI
+關注
關注
87文章
29381瀏覽量
267663 -
機器學習
+關注
關注
66文章
8323瀏覽量
132165
發(fā)布評論請先 登錄
相關推薦
評論