摘要

深度学习是一种基于神经网络的建模方法,通过不同功能感知层的构建获得优化模型,提取大量数据的内在规律,实现端到端的建模。数据规模的增长和计算能力的提高促进了深度学习在光谱及医学影像分析中的应用,但深度学习模型可解释性的不足是阻碍其应用的关键因素。为克服深度学习可解释性的不足,研究者提出并发展了可解释性方法。根据解释原理的不同,可解释性方法划分为可视化方法、模型蒸馏及可解释模型,其中可视化方法及模型蒸馏属于外部解释算法,在不改变模型结构的前提下解释模型,而可解释模型旨在使模型结构可解释。本文从算法角度介绍了深度学习及三类可解释性方法的原理,综述了近三年深度学习及可解释性方法在光谱及医学影像分析中的应用。多数研究聚焦于可解释性方法的建立,通过外部算法揭示模型的预测机制并解释模型,但构建可解释模型方面的研究相对较少。此外,采用大量标记数据训练模型是目前的主流研究方式,但给数据的采集带来了巨大的负担。基于小规模数据的训练策略、增强模型可解释性的方法及可解释模型的构建仍是未来的发展趋势。

  • 出版日期2022
  • 单位药物化学生物学国家重点实验室; 南开大学