摘要

近年来使用光流作为输入特征的基于深度学习的动作预测方法逐渐成为主流,但是光流由于环境因素等影响,极易引入无关的冗余信息,从而降低动作预测的精度,而现有方法并没有考虑到光流中的冗余信息。可以从三方面去除光流图中的冗余信息:消除视频中静止部分光流所带来的冗余信息;选取合理的运动区域以消除无关背景因素引入的光流冗余信息;评估相机的运动去除相机运动产生的光流冗余信息。针对去除冗余信息的光流图,提出了一种基于深度学习的动作预测框架,通过使用空间卷积和时间卷积来减少模型的参数,使用基于时间权重的投票机制实现了对动作的预测。在UT-Interaction set1和set2数据集上的实验表明了该方法的有效性。