
自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。
├── 1、公开课多模态融合SLAM技术分享.mp4
├── 2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4
├── 3、多传感器外参标定原理与代码讲解.mp4
├── 4、激光—惯性子系统(LIS)代码精读.mp4
├── 5、视觉—惯性子系统(VIS)代码精读.mp4
├── 6、激光—视觉—惯性数据融合与优化融合.mp4
├── 7、LVI—SAM代码实战与评估.mp4
├── 8、大作业讲解视频.mp4
您好,本帖含有特定内容,请 回复 后再查看。
#免责声明#
本站不存储任何实质资源,该帖为网盘用户发布的网盘链接介绍帖,本文内所有链接指向的云盘网盘资源,其版权归版权方所有!其实际管理权为帖子发布者所有,本站无法操作相关资源。如您认为本站任何介绍帖侵犯了您的合法版权,请发送邮件 kuafuzy@163.com 进行投诉,我们将在确认本文链接指向的资源存在侵权后,立即删除相关介绍帖子!
暂无评论