摘要

安全帽检测是保障建筑施工现场安全的一个有效手段。为保证暗光条件下图像分辨度,塔机吊钩摄像头夜间经常需采集灰度图像。此外,由于摄像头晃动和人员走动,安全帽目标区域还经常会出现模糊现象。为解决模糊灰度图像中目标特征丢失所导致的检测精度下降问题,以YOLOX作为基准模型,提出一种用于夜间安全帽检测的特征增强和回归权重自适应YOLOX(Feature enhancement and regression weight adaptive,FERWA-YOLOX)算法。算法在输入层增加了融合不同大小感受野的多尺度残差(Multi-scale residuals,MSR)模块,在同层网络中融合更多局部特征,降低目标局部模糊带来的影响;在解耦头的分类分支增加并行池化通道注意力(Parallel pooling channel attention,PPCA)模块,弥补因目标颜色特征丢失所导致的网络分类能力的下降;设计了一种带双惩罚项的损失函数 (Double Penalty Items-Siou,DPI-Siou),自适应的降低形状固定目标的形状损失和模糊目标在回归时的权重,提高网络的检测精度。实验结果表明,FERWA-YOLOX较原YOLOX算法,mAP提升了4.88%,参数量仅提升0.5MB,且满足夜间实时检测需求。