研究目的
研究基于物联网中相机阵列获取的光场数据集角度采样特性的光场成像与深度估计方法,并提出一种结合视差法与聚焦法的深度估计方法以提高深度估计的精度和鲁棒性。
研究成果
所提出的结合视差线索与聚焦线索的深度估计方法(DEPFM)具有较高的计算精度,且被证明优于其他方法。该方法提升了场景深度不连续区域及纹理相似区域的深度估计准确性与鲁棒性。
研究不足
现有的光场采集设备只能获取有限数量的离散角度信号,导致光场角度信号欠采样引发的图像混叠,从而降低光场图像质量。此外,自然场景中存在遮挡和光照差异,以及传感器信号采集过程中的噪声,使得基于光场数据的场景深度估计存在重建精度低、匹配算法鲁棒性差等问题。
1:实验设计与方法选择:
本研究以相机阵列系统为平台,分析多视角数据集及相机阵列光场重聚焦图像集中包含的视差线索与聚焦线索。
2:样本选择与数据来源:
采用8×8相机阵列系统(含64台IH046C CCD相机)采集场景光线。
3:实验设备与材料清单:
包含64台IH046C CCD相机(每台配备COMPUTOR M1214 12mm定焦镜头)及6台用于同步数据采集的服务器。
4:实验流程与操作步骤:
使用前对相机阵列系统进行精确校准以实现光场成像,空间中任意点在图像上的成像位置通过针孔模型表示。
5:数据分析方法:
在视差线索处理过程中采用归一化互相关法(NCC)作为匹配度量函数,并使用改进的拉普拉斯求和算子Sum-Modified-Laplacian(SML)提取聚焦深度线索。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容