摘要:
相机位姿估计是 SLAM 系统的关键环节,影响着整个SLAM 系统的精度和效率。目前估计相机位姿的方法主要为特征点法和直接法两大类。特征点法的精度依赖于特征点的数量以及特征匹配的正确性,当场景中无法提取足够的特征点时,便无法准确地估计相机位姿。直接法通过像素的光度误差来估计相机位姿,不需要提取特征点,因此在特征点法无法工作时,直接法依然可以较为准确地估计相机位姿。但是直接法假设了光度不变性,因此其结果精度不及特征点法。针对SLAM 中相机位姿估计存在的问题,本文提出了一种改进的相机位姿估计方法。该方法的主要思路是将特征点法和直接法结合起来,以此来克服缺乏特征点时相机位姿的估计问题,提高相机位姿的估计精度和鲁棒性。具体来说,首先,本文提出了一个将相机运动模型和图像划分相结合的特征匹配算法,该算法在保证匹配速度的同时,提高了特征匹配的精度与数量。其次,在特征点的基础上,通过引入光度信息,提出了表观形状加权融合的相机位姿估计方法,该方法在缺乏特征点时依然可以稳定工作。最后,本文基于优选的关键帧,实现了局部与全局融合的相机位姿优化,其中局部优化通过构建局部关键帧共视关系实现;全局优化通过基于闭环检测构建的位姿图来实现。为验证上述位姿优化方法的性能,本文构建了基于该方法的SLAM 系统,并在当前流行的场景图像数据集上进行了重建实验,重建果验证了本文方法的有效性。
关键词:
通讯作者信息:
电子邮件地址: