IROS2019多传感器融合SLAM方向

Stereo Visual Inertial LiDAR Simultaneous Localization and Mapping Abstract Simultaneous Localization and Mapping (SLAM) is a fundamental task to mobile and aerial robotics. LiDAR based systems have proven to be superior compared to vision based systems due to its accuracy and robustness. In spite SLAM(Simultaneous Localization and Mapping)是机器人领域的一个核心问题,主要涉及移动或空中机器人的自主导航。本文重点讨论的是在IROS2019会议上提出的多传感器融合SLAM方案,具体为Stereo Visual Inertial LiDAR SLAM(VIL-SLAM),它结合了立体视觉、惯性测量单元(IMU)和激光雷达(LiDAR)的优势,以提高系统在各种环境条件下的定位和建图性能。 传统的LiDAR SLAM系统因其精确性和稳定性而受到青睐,但它们在某些特定环境下(如隧道)可能出现失效。VIL-SLAM旨在解决这个问题,通过将立体视觉、惯性和LiDAR数据紧密融合,提高了系统在退化情况下的表现,同时在一般情况下的性能也与最先进的LiDAR SLAM方法相当。 系统的核心在于四个关键模块: 1. 视觉前端:使用立体相机获取图像对,执行帧间跟踪和立体匹配,输出视觉测量。当立体匹配数量低于预设阈值时,前端会自动进行特征检测和ORB特征匹配,以初始化系统。 2. 双目视觉惯性里程计:采用特征匹配和IMU数据,进行IMU预积分和固定滞后平滑优化,实现高频率的VIO位姿输出。 3. LiDAR建图模块:利用VIO的运动估计对LiDAR数据进行去畸变处理,随后进行扫描到地图的配准,构建环境的三维模型。 4. 闭环模块:执行视觉环路检测,初步估计环路约束,并通过稀疏点云的ICP(Iterative Closest Point)对齐进一步优化。这个过程用于纠正长期的定位漂移,确保全局轨迹的准确性。 VIL-SLAM的关键创新在于它能有效地整合多种传感器的数据,使系统在各种环境中都能保持稳定和准确。视觉信息提供了丰富的场景细节,IMU提供连续的动态信息,而LiDAR则提供了精确的远距离感知能力。通过将这些信息紧密融合,VIL-SLAM能够在复杂和退化场景中实现更好的鲁棒性和精度,尤其是在纯LiDAR方法难以应对的情况下。 VIL-SLAM为移动和空中机器人提供了一种综合解决方案,以适应广泛的环境和应用,例如自主驾驶汽车、无人机探索和室内定位。这种多传感器融合的方法有望推动SLAM技术的进一步发展,提高其在现实世界中的实用性。























剩余6页未读,继续阅读

- 粉丝: 5
我的内容管理 展开
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助


最新资源
- 基于JSP的校园网站的设计与实现论文.doc
- 利用单片机制作简单万年历.doc
- 正确选择财务管理软件[会计实务-会计实操].doc
- 学校开展“2022年网络安全宣传周”活动方案.docx
- 系统集成-大屏监控系统使用说明书.doc
- 普通高中语文教学导向深度学习实践研究方案.doc
- 计算机网络技术模拟试题及答案(最终).doc
- 幼儿园语言文字领导小组网络图.pdf
- 网络防火墙需求分析.doc
- 在Excel中判断单元格是否包含日期【会计实务操作教程】.pptx
- 井下人员定位系统与通信联络系统.ppt
- (源码)基于C++ROS框架的机器人控制系统.zip
- 工程项目管理团队建设.ppt
- 教你如何选择合适的财务软件 .pdf
- 基于单片机的AD转换电路与程序设计.doc
- 网络分析仪E6607C操作指导.ppt



- 1
- 2
前往页