摘要

神经网络模型很容易受到对抗样本的攻击。目前,已有多种防御方法被提出,但多极大地依赖于训练样本。因此,提出了两种不依赖于额外数据的防御方法,可以在已知图像为对抗样本的情况下将其正确分类,称之为对抗样本恢复方法,并用这两种恢复方法组成恢复系统进行了测试。测试结果表明,提出的恢复方法对于DeepFool攻击可以达到99.7%的恢复率,且恢复系统优于单种恢复方法的平均,通过设置不同的系统参数可以获得不同的恢复率和错误率。