摘要

智能机器人不同于工业流水线上固定任务的机器人,它们往往需要面对背景、目标物体形状、位置、姿态、尺寸的多种不确定性,这就要求机器人能够像人一样具有极好的手眼协调能力,能基于动态反馈临机调整自己的动作.本文采用基于RGB-D相机的三维深度信息采集手段,构建了一个用于无标定可变场景机器人手眼协调方法,它能够利用几何关系理解三维场景,实时跟踪并准确分割机械臂末端执行器和待抓取的物体,在没有3D模型的条件下计算末端执行器的姿态,通过计算夹持器的姿态以及夹持器和目标对象在相机坐标系中的相对位移向量之后,将该相对位移矢量从相机坐标系转换到夹持器坐标系,估计夹持器位姿变换矩阵,并将齐次变换矩阵输入到机械手逆运动学程序中,求解出机械臂对应的各关节扭角,从而驱动夹持器指向或移动到物体.这一方法硬件资源需求量少、计算速度快、实时性好.