研究目的
研究激光雷达与视觉传感器的融合,以提高机器人定位精度和环境地图构建能力。
研究成果
该融合系统通过利用激光数据优化视觉SLAM的初始位姿来提高定位精度,从而实现更精确的三维建图。未来工作旨在增强轨迹稳定性。
研究不足
在切换跟踪模式时偶尔出现轨迹波动;需进一步优化以实现平滑稳定的高精度定位。
1:实验设计与方法选择:
结合激光SLAM与视觉SLAM(ORB-SLAM2)以提升定位与建图效果
2:样本选择与数据来源:
采用搭载RPLIDAR A2激光传感器与Kinect v2深度相机的移动机器人
3:实验设备与材料清单:
包含UR5机械臂、麦克纳姆轮、RPLIDAR A2、Kinect v2及Intel NUC计算机
4:Kinect v2及Intel NUC计算机 实验流程与操作步骤:
4. 实验流程与操作步骤:融合激光数据为视觉SLAM优化提供初始位姿值
5:数据分析方法:
对比激光SLAM、视觉SLAM及融合系统的定位精度与建图结果
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
RPLIDAR A2
A2
SLAMTEC
360° laser ranging scanning in the 2D plane
-
Kinect v2
v2
Microsoft
Depth camera for visual sensing
-
UR5 robot arm
UR5
Universal Robots
Robotic arm for mobile operation
-
Mecanum Wheel
CMA20
Wheel for omnidirectional movement
-
Intel NUC
Core i7-6770HQ
Intel Corporation
Computer for running the SLAM system
-
登录查看剩余3件设备及参数对照表
查看全部