研究目的
为了优化卷积神经网络(CNN)的训练,利用深度数据获取更具信息量的上下文,从而提高RGB-D图像语义分割的准确性。
研究成果
SCN在超像素和深度数据的引导下,在NYUDv2和SUN-RGBD数据集上比最先进的方法高出约2%,展示了其在语义分割中有效的上下文表示能力。
研究不足
依赖于低级图像特征进行超像素生成,在低对比度图像中可能无法准确分割物体。未来的工作可以使超像素生成对语义分割结果更敏感。
1:实验设计与方法选择:
SCN利用超像素和深度数据指导上下文表示构建,采用局部结构与自上而下的可切换信息传播机制。
2:样本选择与数据来源:
使用NYUDv2和SUN-RGBD两个公开数据集进行训练和测试。
3:实验设备与材料清单:
RGB-D图像、通过工具包生成的超像素、由深度数据推导的HHA图像。
4:实验流程与操作步骤:
输入RGB和深度图像,生成超像素和HHA图像,使用SGD训练SCN,进行多尺度测试,并应用密集CRF进行后处理。
5:数据分析方法:
采用平均交并比(IoU)评估分割精度。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
Caffe
Berkeley Vision and Learning Center
Platform for network construction and training
-
ResNet
ResNet-101, ResNet-152
Microsoft Research
Base convolutional neural network architecture for feature extraction
-
Structured Forests
Toolkit for generating super-pixels
-
HHA Image
Encoded depth image for geometric information
-
登录查看剩余2件设备及参数对照表
查看全部