對抗樣本文章筆記(二)

2021-08-20 05:17:20 字數 683 閱讀 6826

生**類完全無法識別,但dnn可以給出明確分類的影象。

進化演算法(ea):

選擇一張,進行隨機變異,若對某類的置信度高於擁有當前該類最高置信度的,就將新生成的替代當前最優。通過不斷地對新增干擾、選擇分類效果更好的來得到優勢,過程類似於生物進化時的突變、自然選擇。

兩種編碼方式

間接編碼:通過cppn生成規則的圖形。cppn類似於人工神經網路,輸入時乙個畫素點的位置(x,y),輸出是該畫素點的灰度值或hsv色值。通過更新cppn網路的拓撲結構、權重、神經元的啟用函式等方式進行進化。

1、有人認為對於所有的分類,我們可以生成相似的干擾,是這些被誤分類。本文的實驗表明這種想法並不可行,事實上,進化產生的具有很高的多樣性。

2、干擾產生的原因或許與判別模型和生成模型的特性有關。判別模型一般是對於分類問題,網路通過給出決策邊界來判斷輸入屬於哪個分類,考慮的是p(y|x;θ)。當生成的遠離決策邊界時就會被分為某乙個特定的類,判別模型並不關心x本身是否合理。而生成模型考慮p(x,y),它會學習每一類資料的特徵模型和類別概率,因此不容易被干擾。

3、多次執行時對同一分類會產生不同的影象,說明識別時依賴多個特徵,而每次進化可能會歸結到某一特徵。

4、不只是,其他的資料型別也存在類似的攻擊。

NLP中的對抗樣本

自然語言處理方面的研究在近幾年取得了驚人的進步,深度神經網路模型已經取代了許多傳統的方法。但是,當前提出的許多自然語言處理模型並不能夠反映文字的多樣特徵。因此,許多研究者認為應該開闢新的研究方法,特別是利用近幾年較為流行的對抗樣本生成和防禦的相關研究方法。使用對抗樣本生成和防禦的自然語言處理研究可以...

HGD處理對抗樣本以防禦對抗攻擊

防禦效果 2018cvpr defense against adversarial attacks using high level representation guided denoiser.對抗樣本通過向原始影象新增雜訊來構造,使得輸入模型後分類錯誤。如果在對抗樣本輸入模型之前,進行去噪處理,...

chapter 16 對抗樣本和對抗訓練

對抗樣本即是被用心構造出來,利用演算法的漏洞來被錯誤分類的樣本。舉個例子,前段時間有人發現,只要手持一類,監控裝置就無法將你識別為人類。前面的課程也有例子,一幅大象的,只要加上微不足道的噪點,演算法就會將它識別為別的東西。下面是另乙個例子 左右兩個熊貓在人眼看來毫無區別,但在左圖加上乙個精心構造的縮...