研究目的
利用多损失卷积神经网络方法,从光场数据中合成高质量虚拟视图,以克服光场相机有限的角分辨率和空间分辨率问题。
研究成果
所提出的多损失CNN能从光场数据中有效合成高质量虚拟视图,在PSNR和SSIM指标上优于现有最优方法且运行速度更快。该方法通过特征损失、边缘损失和均方误差损失的组合,成功建模了输入与虚拟视图间的复杂关系,生成了清晰的边缘和细节。未来工作可聚焦于进一步减少模糊并处理更复杂场景。
研究不足
与真实情况相比,该方法在纹理上可能仍存在一定模糊,且输入与虚拟视图之间的关系复杂性(例如由于遮挡和旋转)可能带来尚未完全解决的挑战。训练数据仅限于特定的光场数据集,这可能会影响泛化能力。
1:实验设计与方法选择:
该方法采用三层卷积神经网络(CNN)建模视图合成函数,训练时结合特征损失、边缘损失和均方误差(MSE)损失的多损失函数,在像素空间和特征空间同步优化以提升角度分辨率。
2:样本选择与数据来源:
使用Yoon等人[24]提供的光场数据库,包含30幅具有8×8角度分辨率和541×376空间分辨率的光场图像。输入为四幅子孔径图像,真值为中央子孔径图像。
3:实验设备与材料清单:
配置E5-2640 CPU、GTX 1080 Ti GPU、32GB内存的PC,运行Windows 7操作系统下的Python和TensorFlow环境。
4:实验流程与操作步骤:
从子孔径图像中随机截取224×224尺寸的图像块作为输入,对应中央图像作为真值。采用批量大小32、学习率0.001的ADAM求解器训练CNN(每100次迭代降低学习率),网络包含三个卷积层(前两层使用ReLU激活函数)。
5:学习率001的ADAM求解器训练CNN(每100次迭代降低学习率),网络包含三个卷积层(前两层使用ReLU激活函数)。 数据分析方法:
5. 数据分析方法:通过峰值信噪比(PSNR)和结构相似性(SSIM)指标评估性能,进行边缘检测对比合成视图与真值,并测量运行时间以比较效率。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
GPU
GTX 1080 Ti
NVIDIA
Accelerating the convolutional neural network computations for training and inference.
-
CPU
E5-2640
Intel
Processing unit for running the neural network training and experiments.
-
RAM
32 GB
Memory storage for handling large datasets and neural network operations.
-
Operating System
Windows 7
Microsoft
Platform for running the Python and TensorFlow software.
-
Software
Python
Python Software Foundation
Programming language used for implementing and training the neural network.
-
Software
TensorFlow
Google
Deep learning framework for building and training the convolutional neural network.
-
Light Field Camera
Capturing light field data used in the experiments, though not specified, implied from the dataset.
-
VGG-16 Network
VGG-16
Pre-trained convolutional neural network used for extracting feature maps in the feature loss component.
-
登录查看剩余6件设备及参数对照表
查看全部