0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)驚人的脆弱性和靈活性

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-07-04 09:37 ? 次閱讀

對(duì)抗攻擊通常會(huì)使得神經(jīng)網(wǎng)絡(luò)分類錯(cuò)誤,但谷歌大腦團(tuán)隊(duì)的Ian Goodfellow 等人的新研究提出一個(gè)更加復(fù)雜的攻擊目標(biāo):對(duì)神經(jīng)網(wǎng)絡(luò)重新編程,誘導(dǎo)模型執(zhí)行攻擊者選定的新任務(wù)。該研究首次表明了神經(jīng)網(wǎng)絡(luò)驚人的脆弱性和靈活性。

對(duì)抗樣本(adversarial examples)的研究一般是為了預(yù)防攻擊者通過(guò)對(duì)模型的輸入進(jìn)行微小的修改,從而導(dǎo)致模型的預(yù)測(cè)產(chǎn)生偏差。這樣的攻擊者可能通過(guò)一張貼紙(一個(gè)小的擾動(dòng))就讓無(wú)人駕駛汽車(chē)對(duì)停車(chē)標(biāo)志產(chǎn)生反應(yīng),或者通過(guò)精巧地修改損害情況的照片(一個(gè)小的擾動(dòng))導(dǎo)致保險(xiǎn)公司的損失模型高估了事故的賠償值??紤]到這些,研究人員們提出了很多方法來(lái)構(gòu)建以及抵抗這種對(duì)抗性攻擊(adversrial attacks)。

迄今為止,大多數(shù)的對(duì)抗性攻擊主要由無(wú)目標(biāo)攻擊(untargeted attacks)和有目標(biāo)攻擊(targeted attacks)組成。無(wú)目標(biāo)攻擊旨在降低模型的性能,但不一定需要產(chǎn)生一個(gè)特定的輸出;而有目標(biāo)攻擊旨在對(duì)模型設(shè)計(jì)一個(gè)對(duì)抗性干擾的輸入,從而產(chǎn)生一個(gè)特定的輸出。例如,對(duì)一個(gè)分類器的攻擊可能是為了針對(duì)每張圖像得到特定的輸出類別,或者,對(duì)一個(gè)強(qiáng)化學(xué)習(xí)智能體的攻擊可能是為了誘導(dǎo)該智能體進(jìn)入一個(gè)特定的狀態(tài)。

近日,谷歌大腦的 Gamaleldin F. Elsayed、Ian Goodfellow 和 Jascha Sohl-Dickstein 等人的新研究考慮了一個(gè)更加復(fù)雜的攻擊目標(biāo):在不需要攻擊者計(jì)算特定期望輸出的情況下,誘導(dǎo)模型執(zhí)行攻擊者選定的一個(gè)任務(wù)。

對(duì)抗性重編程

考慮一個(gè)訓(xùn)練用來(lái)執(zhí)行一些原始任務(wù)的模型:對(duì)于輸入,它將產(chǎn)生輸出??紤]一個(gè)敵人(adversary),它希望執(zhí)行一個(gè)對(duì)抗的任務(wù):對(duì)于輸入(不一定和x在同一個(gè)域),敵人希望計(jì)算一個(gè)函數(shù)。我們證明敵人可以通過(guò)學(xué)習(xí)對(duì)抗性重編程函數(shù)( adversarial reprogramming? functions)來(lái)實(shí)現(xiàn)這一點(diǎn),這兩個(gè)函數(shù)是兩個(gè)任務(wù)之間的映射。這里,hf 將來(lái)自x?的域的輸入轉(zhuǎn)換成的域。

在這項(xiàng)工作中,為了簡(jiǎn)單起見(jiàn),并且為了獲得高度可解釋的結(jié)果,我們將定義為小圖像(small images),g是處理小圖形的函數(shù),只包括在大圖像的中心繪制,在邊框中繪制θ,而只是輸出類標(biāo)簽之間的硬編碼映射。?

然而,這個(gè)想法更具通用性;可以是在兩個(gè)任務(wù)的輸入(輸出)格式之間轉(zhuǎn)換的任何一致性轉(zhuǎn)換,并使模型執(zhí)行對(duì)抗性任務(wù)。

我們指的是一類攻擊,在這種攻擊中,機(jī)器學(xué)習(xí)算法被重新用于執(zhí)行一項(xiàng)新的任務(wù),即對(duì)抗性重編程(adversarial reprogramming)。我們將θ稱為對(duì)抗程序( adversarial program)。與以往大多數(shù)對(duì)抗樣本的研究相比,這種擾動(dòng)的幅度不需要受到限制。這種攻擊不需要使人類察覺(jué)不到,或是需要很微妙才被認(rèn)為是成功的。對(duì)抗性重編程的潛在后果包括:從公共服務(wù)中竊取計(jì)算資源,或?qū)?a href="http://srfitnesspt.com/tags/ai/" target="_blank">AI驅(qū)動(dòng)的助理改造成間諜機(jī)器人或垃圾郵件機(jī)器人。

在這篇文章中,我們介紹了對(duì)抗性重編程的第一個(gè)實(shí)例。我們提出一種設(shè)計(jì)對(duì)抗程序的訓(xùn)練過(guò)程,對(duì)抗程序?qū)?dǎo)致神經(jīng)網(wǎng)絡(luò)執(zhí)行新的任務(wù)。在實(shí)驗(yàn)部分,我們演示了針對(duì)用于ImageNet數(shù)據(jù)分類的幾個(gè)卷積神經(jīng)網(wǎng)絡(luò)的對(duì)抗程序。這些對(duì)抗程序?qū)⒕W(wǎng)絡(luò)的功能從ImageNet分類改變成:對(duì)圖像中的方塊進(jìn)行計(jì)數(shù);對(duì)MNIST的數(shù)字進(jìn)行分類,對(duì)CIFAR-10圖像進(jìn)行分類。我們還研究了訓(xùn)練好的和未訓(xùn)練的網(wǎng)絡(luò)對(duì)對(duì)抗性重編程的易感性。

方法

我們提出的攻擊場(chǎng)景如下:當(dāng)執(zhí)行一個(gè)特定任務(wù)時(shí),敵人已經(jīng)獲取了神經(jīng)網(wǎng)絡(luò)的參數(shù),并希望通過(guò)使用一個(gè)可以加入到網(wǎng)絡(luò)輸入中的攻擊程序來(lái)操縱網(wǎng)絡(luò)的函數(shù),以此來(lái)執(zhí)行一個(gè)新的任務(wù)。在這里,我們假設(shè)原始的網(wǎng)絡(luò)是用來(lái)執(zhí)行ImageNet分類的,但是本文討論的方法是具有可擴(kuò)展性的。

我們的對(duì)抗性程序?qū)⒆鳛榫W(wǎng)絡(luò)輸入的附加貢獻(xiàn)。值得注意的是,不像其他大多數(shù)對(duì)抗性干擾,我們的對(duì)抗性程序并不針對(duì)單一的圖像。同樣的對(duì)抗性程序?qū)?yīng)用到所有的圖像中。我們將對(duì)抗性程序定義為:

其中,是將要學(xué)到的對(duì)抗性程序的參數(shù),n是ImageNet圖像的寬度,M是一個(gè)masking矩陣。值得注意的是,M并不是必需的。

作為我們所希望應(yīng)用到對(duì)抗性任務(wù)中數(shù)據(jù)集的一個(gè)樣本,其中。那么相應(yīng)的對(duì)抗性圖像可表示為:

給定一個(gè)輸入圖像,使,它是將對(duì)抗性任務(wù)中的一個(gè)標(biāo)簽映射到一個(gè)ImageNet標(biāo)簽集合。至此,我們對(duì)抗性的目標(biāo)就是將概率最大化。于是,我們將優(yōu)化問(wèn)題設(shè)置為:?

實(shí)驗(yàn)結(jié)果

1. 計(jì)算圖像中的方格數(shù)

首先從簡(jiǎn)單的對(duì)抗性任務(wù)開(kāi)始,即計(jì)算圖像中的方格數(shù)。結(jié)果如圖所示:

圖1:對(duì)抗性重編程的說(shuō)明。

(a)將ImageNet標(biāo)簽映射到對(duì)抗性任務(wù)的標(biāo)簽(圖像中的方塊)。

(b)對(duì)抗性任務(wù)中的圖像(左側(cè))是嵌入在一個(gè)對(duì)抗性問(wèn)題中的(中間),產(chǎn)生對(duì)抗性圖像(右側(cè))。

(c)利用對(duì)抗性圖像進(jìn)行推測(cè)的說(shuō)明。

2. MNIST分類

圖2:為MNIST分類進(jìn)行對(duì)抗性編程的例子。

對(duì)抗性程序?qū)е?個(gè)ImageNet模型轉(zhuǎn)而用作MNIST分類器。

3. CIFAR-10分類

圖3:CIFAR-10分類中對(duì)抗性圖像的例子(圖注)

對(duì)抗性程序重新利用一個(gè)Inception V3 模型作為CIFAR-10分類器的替代函數(shù)。

表:訓(xùn)練好的ImageNet分類器可以對(duì)抗性地再編程來(lái)執(zhí)行多種任務(wù)

4. 再次編程未訓(xùn)練以及對(duì)抗性訓(xùn)練過(guò)的網(wǎng)絡(luò)

圖4:對(duì)抗性程序不論在網(wǎng)絡(luò)還是任務(wù)中都表現(xiàn)出質(zhì)的相似性和不同性。

(a)頂部:將在ImageNet上預(yù)訓(xùn)練的網(wǎng)絡(luò)重新利用來(lái)計(jì)算圖像中方塊數(shù)量的對(duì)抗性程序。

中部:將在ImageNet上預(yù)訓(xùn)練的網(wǎng)絡(luò)作為MNIST分類器函數(shù)的對(duì)抗性程序。

底部:對(duì)抗性程序?qū)⑾嗤木W(wǎng)絡(luò)作為CIFAR-10分類器。

(b)針對(duì)具有隨機(jī)初始化參數(shù)的重組網(wǎng)絡(luò),對(duì)抗性程序?qū)⑵渥鳛镸NIST分類器。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6105

    瀏覽量

    104798
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4726

    瀏覽量

    100315
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1078

    瀏覽量

    40346

原文標(biāo)題:Ian Goodfellow最新論文:神經(jīng)網(wǎng)絡(luò)無(wú)比脆弱,對(duì)抗攻擊重新編程

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    稱為BP神經(jīng)網(wǎng)絡(luò)。采用BP神經(jīng)網(wǎng)絡(luò)模型能完成圖像數(shù)據(jù)的壓縮處理。在圖像壓縮中,神經(jīng)網(wǎng)絡(luò)的處理優(yōu)勢(shì)在于:巨量并行;信息處理和存儲(chǔ)單元結(jié)合在一起;自組織自學(xué)習(xí)功能。與傳統(tǒng)的數(shù)字信號(hào)處理器
    發(fā)表于 08-08 06:11

    如何去提高電源管理的靈活性?

    有什么方法可以提高電源管理的靈活性嗎?
    發(fā)表于 04-23 06:24

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    嵌入式Linux的靈活性

    嵌入式Linux的靈活性,為嵌入式計(jì)算而設(shè)計(jì)的高效、節(jié)能的處理器的可用,以及新處理器的低成本,使許多工業(yè)公司在嵌入式處理器的基礎(chǔ)上開(kāi)發(fā)新的產(chǎn)品成為可能?,F(xiàn)在的工程師雖然可以用強(qiáng)大的工具開(kāi)...
    發(fā)表于 11-04 08:51

    基于熵方法的計(jì)算機(jī)網(wǎng)絡(luò)脆弱性檢測(cè)和優(yōu)化

    基于熵方法的計(jì)算機(jī)網(wǎng)絡(luò)脆弱性檢測(cè)和優(yōu)化_吳杏
    發(fā)表于 01-07 18:56 ?0次下載

    網(wǎng)絡(luò)脆弱性擴(kuò)散分析方法

    網(wǎng)絡(luò)脆弱性評(píng)估是一種主動(dòng)防范技術(shù),意在攻擊發(fā)生之前對(duì)安全態(tài)勢(shì)進(jìn)行分析進(jìn)而制定防御措施,但傳統(tǒng)的定量分析模型不能對(duì)實(shí)體間動(dòng)態(tài)交互關(guān)系有很好的展現(xiàn),而且大都不能得出風(fēng)險(xiǎn)擴(kuò)散的全局化結(jié)果。將脆弱性擴(kuò)散
    發(fā)表于 01-05 15:21 ?0次下載
    <b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>脆弱性</b>擴(kuò)散分析方法

    改進(jìn)DEAHP的支路綜合脆弱性評(píng)估

    電力系統(tǒng)脆弱支路辨識(shí),對(duì)系統(tǒng)安全運(yùn)行、防止災(zāi)難性事故發(fā)生具有重要意義。針對(duì)現(xiàn)有脆弱支路評(píng)估方法存在的評(píng)估角度單一,綜合指標(biāo)權(quán)重選取過(guò)于主觀的問(wèn)題,文中綜合脆弱性的原因分析與后果評(píng)估2個(gè)角度,建立反映
    發(fā)表于 02-28 09:46 ?2次下載

    基于鏈路已用率的電力通信網(wǎng)脆弱性分析

    對(duì)電力通信網(wǎng)的脆弱性作出評(píng)估,找到網(wǎng)絡(luò)中的薄弱環(huán)節(jié),是保證電力通信網(wǎng)絡(luò)系統(tǒng)正常可靠運(yùn)行的重要基礎(chǔ)工作。在前人的研究基礎(chǔ)上,提出了基于鏈路已用率的電力通信網(wǎng)脆弱性的研究方法。首先對(duì)電力通
    發(fā)表于 02-28 15:49 ?0次下載

    使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    PyTorch是一個(gè)流行的深度學(xué)習(xí)框架,它以其簡(jiǎn)潔的API和強(qiáng)大的靈活性在學(xué)術(shù)界和工業(yè)界得到了廣泛應(yīng)用。在本文中,我們將深入探討如何使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò),包括從基礎(chǔ)概念到高級(jí)特性的全面解析。本文旨在為讀者提供一個(gè)完整的、技術(shù)
    的頭像 發(fā)表于 07-02 11:31 ?576次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的優(yōu)缺點(diǎn)有哪些

    的優(yōu)點(diǎn) 自學(xué)習(xí)能力:神經(jīng)網(wǎng)絡(luò)算法具有強(qiáng)大的自學(xué)習(xí)能力,能夠從大量數(shù)據(jù)中自動(dòng)提取特征,無(wú)需人工干預(yù)。這使得神經(jīng)網(wǎng)絡(luò)算法在處理復(fù)雜問(wèn)題時(shí)具有很高的靈活性和適應(yīng)。 泛化能力強(qiáng):
    的頭像 發(fā)表于 07-03 09:47 ?816次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片區(qū)別

    處理神經(jīng)網(wǎng)絡(luò)算法的芯片。它通過(guò)模擬人腦神經(jīng)元的工作方式,實(shí)現(xiàn)了對(duì)大量數(shù)據(jù)的并行處理和快速學(xué)習(xí)。 普通芯片,又稱通用芯片,是指可以執(zhí)行各種計(jì)算任務(wù)的芯片,如CPU、GPU等。它們具有較高的靈活性和通用
    的頭像 發(fā)表于 07-04 09:30 ?695次閱讀

    機(jī)器人神經(jīng)網(wǎng)絡(luò)系統(tǒng)的特點(diǎn)包括

    機(jī)器人神經(jīng)網(wǎng)絡(luò)系統(tǒng)是一種模擬人類大腦神經(jīng)網(wǎng)絡(luò)的計(jì)算模型,具有高度的復(fù)雜靈活性。在本文中,我們將詳細(xì)介紹機(jī)器人神經(jīng)網(wǎng)絡(luò)系統(tǒng)的特點(diǎn),包括其結(jié)
    的頭像 發(fā)表于 07-09 09:45 ?294次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型嗎

    處理、語(yǔ)音識(shí)別等領(lǐng)域取得了顯著的成果。PyTorch是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,由Facebook的AI研究團(tuán)隊(duì)開(kāi)發(fā)。它以其易用、靈活性和高效而受到廣泛歡迎。在PyTorch中,有許多預(yù)訓(xùn)練的
    的頭像 發(fā)表于 07-11 09:59 ?581次閱讀