基于图像降噪的集成对抗防御模型研究

2023-08-25
关注

0    引言

近年来随着计算机硬件发展带来的算力提升和数据量的爆炸性增长,深度学习在很多任务中如图像分类、自然语言处理等方面表现十分出色。深度学习正以前所未有的规模被用于解决一些棘手的科学问题,例如DNA分析、脑回路重建、自动驾驶、药物分析等。

但是随着对深度学习研究的不断深入,学者发现在深度学习强大的表现下也隐藏着巨大的安全隐患。2014年,Szegedy等人在研究中发现,通过添加微小的扰动,在人眼难以察觉到的情况下,可使深度学习模型以高置信度做出错误判断。如图1所示在给“山脉”加上扰动之后,DNN分类器以9439%的置信度将其识别为“狗”,给“河豚”添加扰动后,DNN分类器以100%置信度将其识别为“螃蟹”。这种通过在原始图像上增加一些人眼难以察觉的轻微扰动使得深度学习模型产生错误判断的样本,称为对抗样本。


本文详细内容请下载:https://www.chinaaet.com/resource/share/2000005469




作者信息:

薛晨浩1,杜金浩2,刘泳锐1,杨婧1

(1. 国家计算机网络应急技术处理协调中心山西分中心,山西太原030002;2.国家计算机网络应急技术处理协调中心,北京100083)




  • 机器学习
  • 深度学习
  • 图像深度
  • 图像降噪
  • 集成学习
  • 置信度
您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

传感菜鸟

这家伙很懒,什么描述也没留下

关注

点击进入下一篇

五种不同类型的人工智能应用分析

提取码
复制提取码
点击跳转至百度网盘