0 引言
近年来随着计算机硬件发展带来的算力提升和数据量的爆炸性增长,深度学习在很多任务中如图像分类、自然语言处理等方面表现十分出色。深度学习正以前所未有的规模被用于解决一些棘手的科学问题,例如DNA分析、脑回路重建、自动驾驶、药物分析等。
但是随着对深度学习研究的不断深入,学者发现在深度学习强大的表现下也隐藏着巨大的安全隐患。2014年,Szegedy等人在研究中发现,通过添加微小的扰动,在人眼难以察觉到的情况下,可使深度学习模型以高置信度做出错误判断。如图1所示在给“山脉”加上扰动之后,DNN分类器以9439%的置信度将其识别为“狗”,给“河豚”添加扰动后,DNN分类器以100%置信度将其识别为“螃蟹”。这种通过在原始图像上增加一些人眼难以察觉的轻微扰动使得深度学习模型产生错误判断的样本,称为对抗样本。
本文详细内容请下载:https://www.chinaaet.com/resource/share/2000005469
作者信息:
薛晨浩1,杜金浩2,刘泳锐1,杨婧1
(1. 国家计算机网络应急技术处理协调中心山西分中心,山西太原030002;2.国家计算机网络应急技术处理协调中心,北京100083)