摘要

苹果图像的目标检测是研究苹果采摘机器人的关键技术。本研究以自然光源下的苹果图像为研究对象。首先,针对原始RPN结构的3×3单一小滑动窗口摄取特征信息有限问题,设置不同面积、不同尺寸的9个候选框,同时增加1个滑动窗口,以提高感受野的面积与强度,改进深度学习目标检测框架Faster-RCNN,进而搭建深度学习模型。然后,对图像标注目标的实际位置和类别标签,以苹果的测试集作为输出期望,经过训练得到模型的有效权值。实验结果表明,模型迭代3 000次后,改进模型的目标检测准确率为97.6%,而原始模型为95.3%。另外,改进的模型相对原始模型定位精度更高。