《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 設計應用 > 基于圖像降噪的集成對抗防御模型研究
基于圖像降噪的集成對抗防御模型研究
網絡安全與數(shù)據治理 8期
薛晨浩,,杜金浩,,劉泳銳,,楊婧
(1. 國家計算機網絡應急技術處理協(xié)調中心山西分中心,,山西太原030002; 2.國家計算機網絡應急技術處理協(xié)調中心,,北京100083)
摘要: 深度學習的快速發(fā)展使其在圖像識別,、自然語言處理等諸多領域廣泛應用。但是,,學者發(fā)現(xiàn)深度神經網絡容易受到對抗樣本的欺騙,,使其以較高置信度輸出錯誤結果。對抗樣本的出現(xiàn)給對安全性要求嚴格的系統(tǒng)帶來很大威脅,。研究了在低層特征(LowLevel Feature)和高層特征(HighLevel Feature)對圖像進行降噪以提升模型防御性能,。在低層訓練一個降噪自動編碼器,并采用集成學習的思路將自動編碼器,、高斯擾動和圖像掩碼重構等多種方式結合,;高層對ResNet18作微小改動加入均值濾波。實驗顯示,,所提出的方法在多個數(shù)據集的分類任務上有較好的防御性能,。
中圖分類號:TP391
文獻標識碼:A
DOI:10.19358/j.issn.2097-1788.2023.08.011
引用格式:薛晨浩,杜金浩,,劉泳銳,,等.基于圖像降噪的集成對抗防御模型研究[J].網絡安全與數(shù)據治理,2023,,42(8):66-71.
Research on integrated adversarial defense model based on image noise reduction
Xue Chenhao1,,Du Jinhao2,Liu Yongrui1,,Yang Jing1
(1National Computer Network Emergency Response Technical Team/Coordination Center of China(Shanxi), Taiyuan 030002, China; 2National Computer Network Emergency Response Technical Team/Coordination Center of China, Beijing 100083, China)
Abstract: The rapid development of deep learning makes it widely used in many fields such as image recognition and natural language processing. However, scholars have found that deep neural networks are easily deceived by adversarial examples, making them output wrong results with a high degree of confidence. The emergence of adversarial examples poses a great threat to systems with strict security requirements. This paper denoises the image at the lowlevel (LowLevel Feature) and highlevel features (HighLevel Feature) to improve the defense performance of the model. At the lower layer, a denoising autoencoder is trained, and the idea of integrated learning is used to combine autoencoder, Gaussian perturbation, and image mask reconstruction; the upper layer makes minor changes to ResNet18 and adds mean filtering. Experimental results show that the method proposed in this paper has better performance on the classification task of multiple data sets.
Key words : adversarial examples; integrated learning; denoising autoencoders; highlevel features

0    引言

近年來隨著計算機硬件發(fā)展帶來的算力提升和數(shù)據量的爆炸性增長,,深度學習在很多任務中如圖像分類、自然語言處理等方面表現(xiàn)十分出色,。深度學習正以前所未有的規(guī)模被用于解決一些棘手的科學問題,,例如DNA分析、腦回路重建,、自動駕駛,、藥物分析等。

但是隨著對深度學習研究的不斷深入,,學者發(fā)現(xiàn)在深度學習強大的表現(xiàn)下也隱藏著巨大的安全隱患,。2014年,Szegedy等人在研究中發(fā)現(xiàn),,通過添加微小的擾動,,在人眼難以察覺到的情況下,,可使深度學習模型以高置信度做出錯誤判斷,。如圖1所示在給“山脈”加上擾動之后,,DNN分類器以9439%的置信度將其識別為“狗”,給“河豚”添加擾動后,,DNN分類器以100%置信度將其識別為“螃蟹”,。這種通過在原始圖像上增加一些人眼難以察覺的輕微擾動使得深度學習模型產生錯誤判斷的樣本,稱為對抗樣本,。


本文詳細內容請下載:http://wldgj.com/resource/share/2000005469




作者信息:


薛晨浩1,,杜金浩2,劉泳銳1,,楊婧1

(1. 國家計算機網絡應急技術處理協(xié)調中心山西分中心,,山西太原030002;2.國家計算機網絡應急技術處理協(xié)調中心,,北京100083)




微信圖片_20210517164139.jpg

此內容為AET網站原創(chuàng),,未經授權禁止轉載。