摘要

为了提高遥操作机器人虚拟环境几何学建模的精度,提出了一种基于视触融合的遥操作机器人虚拟环境几何学建模修正方法。首先基于视觉信息通过点云采集和预处理、粗细配准相结合的点云配准、表面重建、位姿测量实现了目标物的几何学建模;之后针对遥操作机器人的应用背景,设计了局部半自主和多指协同相结合的灵巧手控制方式,完成了目标物触觉点云的采集;最后采用视触融合的方法,使用KDtree将视觉点云和触觉点云进行融合,并利用视触融合点云对几何学模型进行修正。通过实验证明该方法对不同材质目标物的几何学建模的几何尺寸误差小于3.6 mm、定位误差小于6.8 mm、姿态角测量误差小于4.3°,且效果均优于基于视觉信息的几何学模型和基于触觉信息的几何学模型。该方法构建的几何学模型既包括了目标物的颜色信息,又提高了几何学模型的精度,且在模型细节处表现良好,有效结合了视觉和触觉两种模态信息的优点。

  • 出版日期2023
  • 单位东南大学; 中国空空导弹研究院

全文