摘要

基于深度学习的遥感图像场景分析,是震后进行损毁评估的重要手段。在损毁建筑影像资源相对稀缺的情况下,构建高质量的遥感场景图片样本集,对提高场景识别和分类精度具有重要意义。作为遥感分析的重要参考依据,上下文信息在场景图片中所占比例是影响样本集构建效果的一个关键因素。目前,样本集构建方法中缺乏对上下文信息合适比例的探索。该文以构建高质量样本集为目标,设计一种调整场景图片上下文信息比例的方法,研究不同上下文信息占比对场景样本集构建的影响,探索上下文信息比例的最佳设置范围。本文构建6组不同上下文信息占比的场景图片样本集,使用5种经典卷积神经网络(convolutional neural network,CNN)进行训练和测试,并依次对每个模型的分类结果和不同上下文信息的分类结果进行分析。研究表明,当上下文信息占比为80%时,CNN网络达到了最佳的分类准确率(92.22%),当上下文信息占比为95%时,则降到89.03%;在所有的CNN模型中,GoogLeNet的分类表现最好,平均准确率达到93.13%。该研究可以找到场景样本集中合理的上下文信息比例设置范围,有效提高遥感场景图片分类的准确率,为损毁建筑遥感场景图片样本集的制作提供指导。