摘要

随着深度学习方法在语音识别系统中的广泛应用,尤其是在自动驾驶、身份认证等安全等级较高的应用,语音识别系统的安全问题至关重要.深度学习给语音识别系统带来更便捷的训练步骤、更高的识别准确率的同时,也给系统的安全性带来了潜在风险.最近的研究表明深度神经网络容易受到对输入数据添加细微扰动的对抗攻击,导致模型输出错误的预测结果.当基于深度学习的语音识别系统被外加的细微扰动所攻击,自动驾驶汽车将会被恶意语音攻击执行危险操作,给自动驾驶系统带来了严重的安全隐患.针对语音识别系统的安全性,本文提出了一种面向语音识别系统的黑盒对抗攻击方法,采用布谷鸟搜索算法自动生成对抗语音样本,实现目标攻击.最后,利用生成的对抗语音样本攻击语音识别系统,挖掘当前性能优异的语音识别系统存在的安全漏洞,将本文提出的黑盒攻击方法在公共语音数据集、谷歌语音命令数据集、GTZAN数据集和LibriSpeech数据集上展开实验,验证了黑盒攻击方法的有效性.更进一步,利用对抗样本对其他语音识别系统进行攻击,验证其具有较强攻击迁移性,并对生成的对抗样本进行了主观评价试验,探究其隐蔽性.