研究目的
通过结合深度学习目标检测与传统目标跟踪技术,分析和研究超局部环境现象,实现实时可视化并增强态势感知能力。
研究成果
该研究提出了一种将视频数据与无人机系统产品有效集成的方法,在大范围内显示出较低的配准误差。单像测图、深度学习目标检测与传统跟踪技术的结合,为分析超局部环境现象提供了一种新方法。未来工作包括实现处理流程自动化,并通过降低图像质量测试系统以确定最低运行要求。
研究不足
该研究的准确性受到图像缺陷的影响,原因包括缺乏相机校准以及天气穹顶造成的畸变。虽然遮挡提取方法在测试案例中有效,但需要在其他场景中进行进一步验证。
1:实验设计与方法选择:
本研究结合单像测图、深度学习目标检测(YOLO框架)和传统目标跟踪算法(TLD、KCF、MIL及光流法)来分析超局部环境。
2:样本选择与数据来源:
使用AXIS Q6044-E PTZ球型网络摄像机的透视视频,以及固定翼无人机(Sensefly eBee)平台获取的航拍影像产品。
3:实验设备与材料清单:
AXIS Q6044-E PTZ球型网络摄像机、Sensefly eBee无人机平台、RGB相机及数字高程模型(DEM)。
4:实验流程与操作步骤:
采集关键点计算图像单应性矩阵,用于透视图像与航拍正射影像的相互转换,并通过反置单应性矩阵转换DEM以估算遮挡区域。
5:数据分析方法:
采用标准距离公式和性能指标评估配准精度、遮挡提取及跟踪算法的准确性。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容