研究目的
开发和评估使用深度传感器与RGB图像的新型人体检测器,以应对机器人在非结构化环境中需感知周围人员的人机交互场景需求。
研究成果
该研究成功开发并评估了多种基于深度信息的人体检测器,结果表明每种检测器都具有特定的优势和使用场景。统一的接口便于集成与比较。建议融合多种检测器以实现人机交互多样化场景中的稳健性能。未来工作应聚焦于自适应组合检测器并在更复杂的环境中进行测试。
研究不足
检测器仅在室内环境中对站立或行走的人进行评估;对于坐着或躺着的人,性能可能有所不同。部分检测器(如基于PPM的)假设地面可见,并且对遮挡或杂乱环境敏感?;贜iTE的检测器需要用户运动才能检测,可能在静态背景或移动传感器下失效。并非所有算法都充分考虑了计算资源和实时性限制。
1:实验设计与方法选择:
本研究受现有二维方法启发并针对人机交互(HRI)进行适配,设计并实现了多种基于深度与RGB数据的人员检测算法(PPLPs)。为标准化处理,提出了通用接口(PeoplePoseList)。
2:样本选择与数据来源:
采用两个数据集——包含55名用户在变化光照条件下行走的公开DGait数据库,以及来自真实HRI场景、含600余帧画面的自制机器人实验室人员数据集(RLPD)。
3:实验设备与材料清单:
使用Kinect深度传感器采集数据。软件工具包括用于Viola-Jones和HOG算法实现的OpenCV、点云处理的PCL,以及系统集成的ROS。
4:实验流程与操作步骤:
每个PPLP作为ROS节点运行,通过处理RGB和深度图像检测用户,步骤涵盖人脸检测、基于HOG的检测、NiTE中间件应用、基于PPM的检测及桌面检测。基准测试通过在数据集画面运行检测器并与真实标签对比完成。
5:数据分析方法:
基于真阳性、真阴性、假阳性和假阴性,采用Olson和Delen定义的方法计算性能指标(准确率与命中率)。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
Kinect
XBox 360
Microsoft
Depth sensor providing RGB and depth images for people detection in social robots.
-
OpenCV
Computer vision library used for implementing Viola-Jones face detection and HOG-based detection algorithms.
-
PCL
Point Cloud Library
Library for 3D point cloud processing, used in clustering and ground plane detection for people detection algorithms.
-
ROS
Robot Operating System
Framework for robotic software development, used to integrate people detectors with a common interface (PeoplePoseList).
-
NiTE
Middleware
PrimeSense
Software for detecting and tracking human shapes from depth maps, used in the NiTE-based people detector.
-
登录查看剩余3件设备及参数对照表
查看全部