导 师: 刘富春
授予学位: 硕士
作 者: ();
机构地区: 华南理工大学
摘 要: 视觉里程计是一种利用相机作为传感器输入设备,并运用估计算法实现相机自运动估计的系统,它在移动机器人、智能可穿戴设备和增强现实等领域具有广泛的应用前景。目前,视觉里程计主流的自运动估计方法为特征点法,特征点法在环境纹理不明显的场景下具有难以提取图像特征、位姿估计性能下降的缺点。近年来,RGB-D相机的发布,给这一问题的解决带来了契机。通过RGB-D相机深度图像数据生成的点云数据,可以应用不依赖环境纹理的点云配准来估计相机运动,与特征点法的运动估计方案形成互补。针对纹理不明显场景,本文应用广义迭代最近点算法(Generalized Iterative Closet Point,G-ICP)来实现点云配准,以此来进行此场景下视觉里程计的运动估计,增强应用特征点法视觉里程计对无纹理场景的适应性。应用点云配准方法来估计相机运动需要环境的点云数据,而在RGB-D相机中,需要利用相机模型的内参数结合深度图像来生成点云数据。为了获取相机模型的内参数,需要利用标定算法来计算相机模型参数。本文首先对RGB-D相机模型进行了详细分析,在此基础上设计与实现了一套便捷式相机标定程序,该程序可以拍摄并实时显示RGB-D传感器采集的彩色图像、深度图像和红外图像数据,在获取标定板图像的基础上,用户可以在程序界面上调节滑动条来调整检测角点位置,方便标定流程的进行。其次,在获得相机模型参数的基础上,本文详细分析了广义迭代最近点算法的原理,然后针对匹配最近点构造的优化目标函数,应用李代数参数化位姿并结合非线性最小二乘法来进行求解,并对该求解算法和原版求解算法在性能上做了对比分析。在应用此求解算法的基础上,利用广义迭代最近点算法结合点云降采样来处理本文视觉里程计在纹理不明显场景下的运动估计问题,并在公开�
领 域: []