收录:
摘要:
本发明公开了一种基于动静态场景分离的视觉里程计方法,该方法是一个深度卷积神经网络模型,能够通过帧间变化分析实现动静态场景分离,并利用可靠的静态场景信息实现相机位姿的计算。该模型由三个子任务构成,分别为深度估计、相机位姿估计、动态物体检测。与现有技术相比,本发明具有以下优点:1)模型通过帧间变化分析,利用动态场景中深度信息的不一致性以及光流信息实现对场景的动静态分离,在此基础上利用更加可靠的静态场景信息实现相机位姿估计;2)利用估计得到的深度信息和相机位姿变换信息,使用T时刻的图像合成T+1时刻的图像,利用T+1时刻的合成图及其原图实现自监督学习,无需监督学习需要的昂贵代价。
关键词:
通讯作者信息:
电子邮件地址: