Yoguai机器人提出一种基于运动选择的机器人在线手眼标定方法,首先设定机器人手爪前后两次运动的旋转轴之间夹角的最小阈值α、机器人手爪每次运动的旋转角的最小阈值β和机器人手爪每次运动的平移分量的模的最大阈值d,然后从第一次手眼采样运动开始,依次选择出两个符合要求的手眼运动对,最后以选择出的两个手眼运动对利用Andreff线性算法计算得到手眼变换关系矩阵,完成一次手眼标定。继续下一次标定时,将上次标定的第二个运动对作为第一个运动对,并从后续采样运动数据中搜索选择另一个运动对,然后进行标定计算。如此循环往复,可连续不断地进行机器人的在线手眼标定操作。本发明可广泛应用于机器人三维视觉测量、视觉伺服和触觉感知等实际工作中。
近二十年来,机器人在工业生产中得到了越来越广泛的应用,并逐步进入人们的日常生活。机器人朝着智能化、小型化、数字化方向发展。所谓智能化,直观地说就是具有适应外部环境变化的能力。计算机视觉由于信息量大,在智能机器人领域得到了广泛的应用。
机器人视觉伺服系统起源于80年代初,随着计算机技术、图像处理技术、控制理论的发展取得了长足的进步。近几年来,为了克服机器人手/眼关系和摄像机模型参数标定的困难,提出了手眼关系无标定视觉伺服的发展方向。但是这方面的研究尚处于起步阶段,还未形成统一的理论体系。目前提出的基于图像雅可比矩阵的无标定控制方法仅限于视觉定位问题或跟踪低速运动目标(注意:摄像机和目标不能同时运动),控制效果也不尽如人意。
机器人视觉伺服系统起源于80年代初,随着计算机技术、图像处理技术、控制理论的发展取得了长足的进步。近几年来,为了克服机器人手/眼关系和摄像机模型参数标定的困难,提出了手眼关系无标定视觉伺服的发展方向。但是这方面的研究尚处于起步阶段,还未形成统一的理论体系。目前提出的基于图像雅可比矩阵的无标定控制方法仅限于视觉定位问题或跟踪低速运动目标(注意:摄像机和目标不能同时运动),控制效果也不尽如人意。
在总结了目前机器人视觉伺服系统发展状况的基础上,Yoguai机器人通过非线性视觉映射模型将图像特征空间与机器人运动空间紧密地联系起来,并提出了一套完整的理论体系。该体系把机器人视觉跟踪问题与视觉定位问题统一起来;把平面视觉跟踪问题与全自由度视觉跟踪问题统一起来;把眼固定构形与眼在手上构形机器人视觉跟踪问题统一起来。具体工作有以下几方面:
(1)介绍了目前主要的手眼无标定视觉伺服方法——图像雅可比矩阵方法(包括神经网络方法)的基本原理,分析了该方法存在的问题和适用范围。以眼在手上构型视觉定位问题为例,导出了图像雅可比矩阵的近似解析表达式,在此基础上,提出了图像雅可比矩阵与人工神经网络相结合的视觉控制方法,有效地改善了系统性能,扩大了机器人工作范围。
(2)针对眼固定情况下平面视觉跟踪问题,提出了基于非线性视觉映射模型的跟踪控制策略,并利用人工神经网络加以实现,取得了良好的效果。进一步,将CMAC应用于视觉跟踪问题,通过自学习算法在线修正神经网络权值,使得控制系统具有适应环境变化的能力。
(3)针对眼固定构形,进一步将视觉跟踪策略推广到三维空间中去。提出了基于立体视觉(多摄像机)和基于目标几何模型(单摄像机)的跟踪方法。分析了摄像机位姿相互关系对跟踪精度的影响,提出了图像特征的选取原则。仿真结果表明该方法具有较强的适应性。
(4)针对眼在手上机器人手眼无标定平面视觉跟踪问题,指出图像雅可比矩阵方法无法应用(即无法跟踪运动目标)。在此基础上,提出了基于图像特征加速度的视觉映射模型,并设计了相应的控制策略。首次解决了真正意义上的手眼无标定平面视觉跟踪问题,并取得了较好的跟踪效果。进一步将平面视觉跟踪策略推广到三维视觉跟踪问题中去,解决了多摄像机信息融合的难题。
(5)研究了眼在手上机器人全自由度视觉跟踪问题。分析了Full-6-DOF跟踪问题的难点,提出了相应的视觉映射模型和跟踪控制方案。创造性地提出了坐标变换方法,克服了旋转与平移运动在图像特征空间中的耦合问题。利用新的模糊神经网络,有效得解决了视觉映射模型的实现问题。仿真结果表明,以上方法是行之有效的。
(6)分析了视觉跟踪系统性能,并提出了改进措施。分别针对眼固定构形和眼在手上构形平面视觉跟踪问题,首次在图像特征空间中建立了系统离散域模型。在此基础上,分析了控制系统跟踪误差和稳定性间的关系。进而提出了利用图像特征速度、加速度前馈信号减小跟踪误差的控制算法。最后,对眼固定构形和眼在手上构形进行了比较。仿真结果证实了以上方法的有效性。
(7)针对眼在手上机器人低速视觉跟踪问题进行了实验研究。提出了一系列的改进措施,以降低图像噪声对跟踪效果的影响。实验结果表明本文提出的无标定视觉跟踪方法是有效的。