- 标题
- 摘要
- 关键词
- 实验方案
- 产品
-
深度学习实现荧光显微镜的跨模态超分辨率成像
摘要: 我们展示了跨不同荧光显微镜模态的深度学习超分辨率技术。这种数据驱动的方法无需对成像过程进行数值建?;蚬兰频憷┥⒑浜诵氖峭ü盗飞啥钥雇纾℅AN)将衍射极限输入图像转换为超分辨率图像?;诟每蚣?,我们提升了低数值孔径物镜采集的宽场图像分辨率,使其达到高数值孔径物镜的成像水平。我们还实现了跨模态超分辨率转换,将共聚焦显微镜图像提升至受激发射损耗(STED)显微镜的分辨率。进一步研究表明,细胞及组织内亚细胞结构的总内反射荧光(TIRF)显微镜图像可被转换为基于TIRF的结构光照明显微镜效果。该深度网络能快速输出这些超分辨率图像,无需任何迭代或参数搜索,有望推动超分辨率成像技术的普及应用。
关键词: 生成对抗网络、跨模态、超分辨率、荧光显微镜、深度学习
更新于2025-11-21 11:24:58
-
一种基于深度卷积神经网络的糖尿病视网膜病变增强检测与分类方法
摘要: 本研究旨在提出一种替代性的混合解决方案,用于从视网膜眼底图像诊断糖尿病视网膜病变。具体而言,该混合方法结合了图像处理与深度学习技术以提升诊断效果。在医学图像处理领域,从数字眼底图像可靠检测糖尿病视网膜病变仍是一个悬而未决的问题,需要开发替代性解决方案。当前背景下,人工解读视网膜眼底图像需要大量人力、专业知识和过度耗时。因此医生亟需影像与计算机视觉系统的辅助,而下一步发展则与智能诊断系统的应用密切相关。本研究提出的解决方案包含采用直方图均衡化与对比度受限自适应直方图均衡化技术的图像处理流程,继而通过卷积神经网络分类实现诊断。该方法使用MESSIDOR数据库中的400张视网膜眼底图像进行验证,获得各项性能评估参数平均值:准确率97%、灵敏度(召回率)94%、特异度98%、精确率94%、F值94%及几何均值95%。除上述结果外,与既往研究的总体比较也表明,本方法在从视网膜眼底图像诊断糖尿病视网膜病变方面具有充分的有效性与成功性。通过运用相关图像处理技术与深度学习进行糖尿病视网膜病变诊断,本方法及研究成果对相关文献具有重要价值贡献。
关键词: 图像处理、深度学习、卷积神经网络、糖尿病视网膜病变
更新于2025-09-23 15:23:52
-
焦点边界引导的显著目标检测
摘要: 通过使用深度卷积网络,显著目标分割的性能得到了显著提升。然而,这些网络通常生成类似斑块的显著性图,无法精确呈现物体边界。这是由于多次池化操作后特征图的空间分辨率受限所致,可能会阻碍需要精确物体形状的下游应用。为解决这一问题,我们提出了一种新型深度模型——焦点边界引导(Focal-BG)网络。该模型旨在联合学习分割显著目标掩模与检测显著目标边界。我们的核心思想是:关于物体边界的附加知识有助于精确定位物体形状。此外,该模型包含一个细化路径来优化掩模预测,并采用焦点损失函数促进难边界像素的学习。为评估模型性能,我们开展了大量实验。Focal-BG网络在五大基准测试中始终优于现有最优方法。我们详细分析了这些结果,证明对显著目标边界与掩模的联合建模能更好捕捉形状细节,尤其在物体边界附近区域。
关键词: 显著目标分割、深度学习、视觉显著性检测、边界检测
更新于2025-09-23 15:23:52
-
快速扫描网络:用于癌症转移检测的多千兆像素全切片图像的快速密集分析
摘要: 淋巴结转移是乳腺癌诊断中最重要的指标之一,传统上由病理学家通过显微镜观察。近年来,随着高通量扫描和深度学习技术的飞速发展,从全切片图像中进行组织学自动分析在医学图像计算领域备受关注,旨在减轻病理学家的工作负担并同时降低误诊率。然而,从全切片图像中自动检测淋巴结转移仍是一项关键挑战,因为这类图像通常非常庞大(往往可达数GB)。此外,难辨伪影的存在可能导致大量假阳性结果。本文提出一种具有锚定层的新型模型转换方法,该方法不仅利用全卷积架构的高效性满足临床实践中的速度要求,还能对全切片图像进行密集扫描,从而实现对微转移和宏转移的精准预测。通过结合异步样本预取和难负样本挖掘策略,网络可得到有效训练。我们在2016年Camelyon大挑战赛基准数据集上验证了本方法的效能,在肿瘤定位准确性方面较现有最优方法取得显著提升,且速度更快,甚至在两项挑战任务中超越了人类表现。
关键词: 转移灶检测、组织病理学图像分析、深度学习、全玻片图像、计算病理学
更新于2025-09-23 15:23:52
-
[SPIE图像处理会议 - 美国休斯顿(2018年2月10日-2018年2月15日)] 医学成像2018:图像处理 - 生物标志物回归的深度学习:应用于胸部CT扫描中的骨质疏松症和肺气肿
摘要: 引言:基于深度学习的生物标志物计算通常采用两步流程——先通过深度学习算法分割感兴趣区域,再测量生物标志物。我们提出一种替代范式,即直接利用回归网络估算生物标志物。本研究通过两项CT影像指标展示这种"图像-生物标志物"范式:骨密度(BMD)估算与肺气肿百分比测算。材料与方法:使用包含9,925例CT扫描的大型数据库训练/验证/测试网络(参考标准BMD及肺气肿百分比已预先计算)。首先通过自动目标检测器将三维数据集简化为可见目标器官的标准二维切片(BMD对应脊柱,肺气肿对应肺部)。其次构建的回归神经网络包含三个卷积层、一个全连接层及输出层,采用带指数衰减率的动量优化器并以均方根误差作为损失函数进行优化。结果:相较于参考标准的皮尔逊相关系数显示,BMD和肺气肿百分比分别获得r=0.940(p<0.00001)和r=0.976(p<0.00001)的强相关性。结论:深度学习回归架构能直接从图像学习生物标志物而无需标注目标结构,该方案简化了生物标志物提取算法的开发?;谀勘昙觳馄鞯氖菁蚧椒杀A糇愎恍畔⒂糜谀勘晟锉曛疚锏募扑?。
关键词: 回归、深度学习、骨密度、计算机断层扫描、肺气肿
更新于2025-09-23 15:23:52
-
FusionCNN:一种基于深度卷积神经网络的遥感图像融合算法
摘要: 在遥感图像融合领域,基于人工融合规则的传统算法对源图像具有高度敏感性。本文提出了一种基于卷积神经网络的图像融合算法(FusionCNN)。该融合模型隐式表征了一个融合规则,其输入为一对源图像,输出为具有端到端特性的融合图像。由于遥感领域缺乏可用于训练FusionCNN的数据集,我们从自然图像集中构建了新数据集以模拟多光谱(MS)和全色(Pan)图像。为获得更优的融合质量,在预处理步骤中利用多光谱图像的低频信息增强全色图像。本文提出的方法通过大量训练数据学习自适应性强鲁棒的融合函数,克服了传统融合方法中人工制定融合规则的缺陷。采用Landsat和Quickbird卫星数据验证了所提方法的有效性。实验结果表明,该融合算法在主观与客观评价方面均优于对比算法。
关键词: 卷积神经网络,深度学习,遥感图像融合,图像增强
更新于2025-09-23 15:23:52
-
DeepPrimitive:通过分层基元检测实现图像分解
摘要: 通过立方体、球体和圆锥等基本构建??槔锤兄泳跏澜纾谷死嗄芄灰约蛟嫉姆绞嚼斫馐泳趸肪?。因此,基于原始几何形态解读视觉数据的研究可追溯至20世纪70年代的视觉媒体研究。然而由于前深度学习时代原始形态拟合的困难性,这一研究路径逐渐退出主流,视觉领域主要转向语义图像理解。本文我们借助监督式深度学习工具重新探究图像几何化解释的经典问题:通过改进YOLO网络构建分层检测图像原始形态的框架,继而采用带新型损失函数的循环神经网络使该系统具备预测参数数量可变的原始形态的能力。我们将该流程与传统方法及其他基线学习方案进行对比,证明分层检测模型具有更高精度和更优重建效果。
关键词: 生物启发视觉、原始检测、深度学习、分层图像分解
更新于2025-09-23 15:23:52
-
高空间分辨率影像土地利用场景分类的深度特征词典
摘要: 高空间分辨率影像的土地利用分类是遥感领域的关键任务。为此,学界已投入大量精力开发更高精度的分类方法。近年来,深度学习已成为机器学习的主流范式,基于深度卷积神经网络的方法尤其受到遥感学界的关注。这些方法通常采用迁移学习和/或数据增强技术来应对公开数据集中标注样本量不足的问题,但往往需要强大的计算设备和/或较长的训练时间。本研究提出一种简单新颖的高空间分辨率影像土地利用分类方法,该方法高效融合了迁移学习与稀疏表示理论。具体而言,我们改进了经典的基于稀疏表示的分类方法来实现土地利用场景分类——原始方法直接使用训练图像构建字典进行测试图像分类,而本方法通过预训练的深度卷积神经网络和高斯混合模型生成更鲁棒、更紧凑的"深度特征字典"。我们在UC Merced和巴西塞拉多-萨凡纳两个公开数据集上验证了方法有效性,实验结果表明该方法有望超越现有高空间分辨率影像土地利用分类技术的先进水平。
关键词: 字典学习、土地利用分类、稀疏表示、特征学习、深度学习
更新于2025-09-23 15:23:52
-
基于深度学习的条纹图案去噪
摘要: 本文提出了一种将深度学习作为全新算法用于减少条纹图噪声的方法。传统方法通常通过实验采集训练样本,但该算法可通过仿真轻松获取这些数据,从而大幅降低整个训练过程的时间成本。通过对仿真和真实条纹图的分析验证了本算法的性能。显然,与现有去噪算法相比,该算法具有更快的计算速度,且能高质量还原条纹图。最重要的是,该算法可为光学领域其他去噪问题(如全息图和散斑去噪)提供解决方案。
关键词: 条纹图案,深度学习,去噪
更新于2025-09-23 15:23:52
-
来自沿海海水和淡水的溶解性有机质对2,4-二羟基二苯甲酮光降解的差异性影响
摘要: 随着深度学习技术的快速发展,其在不同领域挑战性问题中的应用引发了广泛关注。鉴于卷积神经网络(CNN)在音频分析各项任务中的近期成功表现,本文研究了几种最先进CNN架构在大规模鲸类叫声分类任务上的性能对比?;谏疃壬窬缒P?,提取鲸鱼亚群的独特特征以获得更高层次的抽象表征,从而实现更精准的分类——这种方法显著优于基于专家知识使用人工特征的的传统分类方法。特别地,本研究采用由不同海域鲸鱼携带的音频传感器记录的大型开源声学数据集进行性能比较。实验发现,主流CNN架构的进步显著提升了鲸类叫声分类任务的准确率,且准确率与计算效率随CNN架构变化而异。在四种CNN架构中,Xception表现最佳,而CNN模型集成则能取得更优结果。
关键词: 深度学习、鲸鱼叫声分类、卷积神经网络
更新于2025-09-23 15:23:52