0 0 0

【彻底剖析激光-视觉-IMU-GPS融合SLAM算法:理论推导、代码讲解和实战】[8.39GB]

学习区 somebody somebody 7小时前
16 0

自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。


├── 1、公开课多模态融合SLAM技术分享.mp4

├── 2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4

├── 3、多传感器外参标定原理与代码讲解.mp4

├── 4、激光—惯性子系统(LIS)代码精读.mp4

├── 5、视觉—惯性子系统(VIS)代码精读.mp4

├── 6、激光—视觉—惯性数据融合与优化融合.mp4

├── 7、LVI—SAM代码实战与评估.mp4

├── 8、大作业讲解视频.mp4

 

 

最新回复 (0)

    暂无评论

请先登录后发表评论!

返回
请先登录后发表评论!