研究目的
通过提出一种结合无监督和有监督学习的混合深度学习模型,以提高单幅图像去雾中透射率估计的鲁棒性和准确性。
研究成果
提出的DeeptransMap模型通过结合无监督特征提取与有监督深度学习,有效提升了单幅图像去雾中透射率估计的鲁棒性与准确性。实验结果表明,该模型在定性与定量评估中均优于现有先进方法,且推理阶段计算复杂度较低。未来工作可针对复杂雾霾条件处理及超参数优化等局限性进行改进。
研究不足
由于物理模型过于简单,该方法不适用于夜间雾霾图像或雾霾分布不均的图像。为PrismNet定制超参数(如图像块大小、隐藏层数量)既费力又依赖人工经验。该模型训练耗时较长(约8小时),但推理效率高且计算复杂度低。
1:实验设计与方法选择:
本研究设计了一种名为DeeptransMap的混合神经网络架构,包含无监督特征提取单元(PrismNet)和有监督透射率估计单元(SausageNet-72)。PrismNet采用自编码器框架提取多尺度雾霾相关特征,SausageNet-72则是用于回归的深度卷积神经网络。该方法基于大气散射物理模型和深度学习技术。
2:样本选择与数据来源:
训练PrismNet时,从1000张真实雾霾图像中随机采样10,000个15×15像素的图像块。训练SausageNet-72时,使用NYUD、Make3D和KITTI数据集中的无雾图像(包含已知深度的室内外场景)通过大气散射模型生成合成数据。
3:实验设备与材料清单:
使用配备3.3GHz英特尔i7-5820K CPU和NVIDIA GeForce GTX Titan X GPU的台式计算机进行实现与训练。软件包括用于深度学习的Caffe工具包。
4:3GHz英特尔i7-5820K CPU和NVIDIA GeForce GTX Titan X GPU的台式计算机进行实现与训练。软件包括用于深度学习的Caffe工具包。
实验流程与操作步骤:
4. 实验流程与操作步骤:PrismNet通过均方误差损失进行无监督训练,SausageNet-72采用Nesterov优化器和欧氏损失进行有监督训练。流程包括图像分块、特征编码、与原图拼接及透射率图估计,最终利用估计的透射率和大气光进行去雾处理。
5:数据分析方法:
定性分析通过去雾图像的视觉对比完成;定量评估采用九项图像质量指标(如e、r、IVM、CG、VCM、σ、HCC、SSIM、UQI)评价能见度、色彩还原和图像结构。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容