基于分类器集成的图像识别欺骗与防范算法的研究文献综述

 2021-12-25 04:12

全文总字数:2192字

文献综述

一、选题背景近年来,深度学习一直是图像处理、自然语言处理、无人驾驶等领域热议的话题,但最近的研究表明,深度学习技术也面临多种安全性问题。

2013年,Szegedy等首先在图像分类领域提出攻击者通过构造轻微扰动来干扰输入样本,就可使基于深度神经网络(Deep Neural Network, DNN)的图片识别系统输出攻击者想要的任意错误结果。

随后的研究发现,除了DNN模型以外,攻击算法同样能成功地攻击循环神经网络(Recurrent Neural Network, RNN)、强化学习模型等不同深度学习模型,甚至只需要改动一个像素即可骗过识别模型。

成功的攻击有可能导致错误的后续指令被执行,从而引发严重的后果。

因此,如何防御攻击,对加强机器学习安全性、提升人工智能产品的稳定性有着重要的意义。

针对攻击算法的前沿防御方法主要有完全防御和检测防御两种。

完全防御方法的目标是让网络将对抗样本识别为正确的类别,而检测防御方法意味着在对抗样本上发出报警以拒绝任何进一步的处理。

这两种方法目前主要采取对分类器算法进行优化,从而在一定程度上抵御攻击算法的影响。

然而,由于单一分类模型的鲁棒性不强,随着攻击算法的发展,这种类型的尝试也在逐渐失去原有的作用。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。