||

Virtual Issue on Machine Learning and Image Processing
机器学习与图像处理虚拟专刊
1.Multi-level distribution alignment-based domain adaptation for segmentation of 3D neuronal soma images
基于多级分布对齐的域自适应三维神经元胞体分割方法
摘要:
深度学习网络在神经元胞体分割领域的应用日益广泛。然而,数据标注工作本身也是耗时费力的过程。无监督域自适应是缓解这一问题的有效方法,它能够通过从富含标注的源域迁移知识来训练自适应分割模型。本文提出一种基于多级分布对齐的无监督域自适应网络(MDA-Net),专门用于三维神经元胞体图像分割。该网络在特征空间和输出空间同步实施分布对齐:在特征空间中,通过自适应融合多尺度特征增强小目标胞体的特征提取能力,并采用对抗自适应策略约束特征具有域不变性;在输出空间中,基于预测分割结果构建能够反映胞体空间结构的局部差异图,通过跨域局部差异图的分布对齐获得更优的目标域差异图,从而提升神经元胞体的分割精度。此外,在分布对齐过程中,系统会筛选具有高置信度伪标签的目标域样本参与训练,以增强分割网络的适应性。通过在两个三维小鼠脑神经元胞体数据集和一个猕猴脑神经元胞体数据集上对比多种域自适应网络,验证了所提算法的优越性。
引用:
Li Ma, Xuantai Xu, and Xiaoquan Yang. Multi-level distribution alignment-based domain adaptation for segmentation of 3D neuronal soma images.Journal of Innovative Optical Health Sciences Vol. 18, No. 06, 2550020 (2025)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545825500208
2.SVSNet: Scleral vessel segmentation with a CNN-Transformer hybrid network
SVSNet:基于CNN-Transformer混合网络的巩膜血管分割技术
摘要:
人眼表面的巩膜血管能为特定器官的潜在疾病或功能障碍提供重要信息,而血管分割是表征巩膜血管的关键步骤。然而,由于巩膜血管纹理复杂、结构纤细且网络分布不规则,在巩膜图像中实现精确血管分割颇具挑战。本研究提出名为SVSNet的CNN-Transformer混合网络,用于实现自动巩膜血管分割。该网络采用经典的U型编码器-解码器架构,集成Sobel边缘检测模块提供边缘先验信息,并结合空洞空间金字塔池化模块增强对多尺度血管的提取能力。在编码路径末端引入视觉Transformer模块,以捕获全局上下文信息并提升血管网络的连续性。为验证SVSNet的有效性,我们在两个公开巩膜图像数据集上进行对比实验,结果表明该网络性能优于其他先进模型。在三个公开视网膜图像数据集上的进一步实验证明,SVSNet能轻松适配其他血管数据集,具有优异的泛化能力。
引用:
Hantao Bai, Zongqing Ma, Chuxiang Gao, and Jiang Zhu. SVSNet: Scleral vessel segmentation with a CNN-Transformer hybrid network.Journal of Innovative Optical Health Sciences Vol. 18, No. 06, 2550017 (2025)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545825500178
3.Streamlined photoacoustic image processing with foundation models: A training-free solution
基于基础模型的免训练光声图像处理流程:一种无需训练的解决方案
摘要:
基础模型在计算机视觉领域发展迅速并取得显著成就。其提示机制使用户能够便捷地将图像先验信息融入模型,从而实现无需训练即可直接应用。为此,我们提出了一种基于基础模型的零训练处理流程,用于解决光声图像处理任务。通过设置简单提示词,我们采用分割一切模型(SAM)并将其输出与成像对象的先验知识相结合,成功完成了以下任务:(1)三维光声图像渲染中的皮肤信号去除;(2)双声速重建;(3)手指血管分割。这些实践表明,基础模型无需网络设计和训练即可直接应用于光声成像领域,为实现高效精准的光声图像分割提供了一种便捷的实操方案。本文附赠代码与样本数据集,可作为掌握该技术的完整教程。
引用:
Handi Deng, Yucheng Zhou, Jiaxuan Xiang, Liujie Gu, Yan Luo, Hai Feng, Mingyuan Liu, and Cheng Ma.Streamlined photoacoustic image processing with foundation models: A training-free solution.Journal of Innovative Optical Health SciencesVol. 18, No. 01, 2450019 (2025)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545824500196
4. A 3D semantic segmentation network for accurate neuronal soma segmentation
面向精准神经元胞体分割的三维语义分割网络
摘要:
神经元胞体分割在神经科学应用中具有关键作用。然而,细胞图像中普遍存在的精细结构(如边界、小体积胞体与纤维)对实现精确分割提出了挑战。本文提出一种用于神经元胞体分割的三维语义分割网络以解决该问题。该网络采用编码-解码结构,在每个编码块后引入多尺度特征提取与自适应加权融合模块(MSAW)。该模块既可通过上采样策略增强对精细结构的特征表达,又能提供像素级权重以量化多尺度特征的重要性。此外,网络采用动态卷积替代常规卷积,使模型能更好地适应不同分布特性的输入数据。基于MSAW的语义分割网络(MSAW-Net)在小鼠大脑的三个神经元胞体数据集和猕猴大脑的一个神经元胞体数据集上进行了验证,结果表明该方法显著提升了分割性能:在Fezf2-2A-CreER数据集上F1分数达91.8%,LSL-H2B-GFP数据集达97.1%,Thy1-EGFP-Mline数据集达82.8%,猕猴数据集达86.9%,相较3D U-Net模型分别提升3.1%、3.3%、3.9%和2.3%。
引用:
Li Ma, Qi Zhong, Yezi Wang, Xiaoquan Yang, and Qian Du.A 3D semantic segmentation network for accurate neuronal soma segmentation.Journal of Innovative Optical Health SciencesVol. 18, No. 01, 2450018 (2025)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545824500184
5.Unified deep learning model for predicting fundus fluorescein angiography image from fundus structure image
基于统一深度学习模型的眼底结构图像转荧光造影图像预测方法
摘要:
从眼底结构图像预测荧光素血管造影(FFA)图像是眼科影像处理领域的前沿课题。预测任务主要包括三大类:基于眼底相机的FFA估计、基于扫描激光检眼镜(SLO)的单期相FFA预测,以及同样基于SLO的三期相FFA预测。目前虽已有多种深度学习模型,但单个模型通常仅能完成其中一至两项预测任务。为实现三大任务的统一建模,本文提出一种基于监督式生成对抗网络的统一深度学习模型。该模型通过三个核心步骤实现预测:数据预处理、FFA监督下的网络训练、测试集上的眼底结构图像到FFA图像转换。通过将本模型与pix2pix、CycleGAN的预测结果进行对比,我们证明了所提方案取得的显著进展。在峰值信噪比、结构相似性指数和均方误差三项指标上的优异表现,验证了本模型的高性能。
引用:
Yiwei Chen, Yi He, Hong Ye, Lina Xing, Xin Zhang, and Guohua Shi. Unified deep learning model for predicting fundus fluorescein angiography image from fundus structure image.Journal of Innovative Optical Health SciencesVol. 17, No. 03, 2450003 (2024)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545824500032
6.A generalized deep neural network approach for improving resolution of fluorescence microscopy images
基于广义深度神经网络的荧光显微图像分辨率提升方法
摘要:
深度学习能显著推动超分辨率成像技术在成像速度、重建效率、分辨率和通量等方面的进步。本文提出一种基于生成对抗网络(GAN)的深度神经网络,其生成器采用基于U-Net的架构,并集成DenseNet作为下采样模块。该方法具有以下突出特性:网络模型通过多个不同生物结构数据集进行训练;训练后的模型可提升共聚焦成像、宽场成像等多种显微成像模式的分辨率;即使对于训练集外的生物结构,模型仍表现出普适的分辨率提升能力。实验结果表明,该方法将窖蛋白包被凹坑(CCP)结构的分辨率从264纳米提升至138纳米,增强倍数达1.91倍;对微流控通道中传输的DNA分子成像分辨率提升近两倍。
引用:
Zichen Jin, Qing He, Yang Liu, and Kaige Wang. A generalized deep neural network approach for improving resolution of fluorescence microscopy images.Journal of Innovative Optical Health SciencesVol. 17, No. 06, 2450011 (2024)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545824500111
7.Multi-class classification of pathological myopia based on fundus photography
基于眼底彩照的病理性近视多分类诊断方法
摘要:
病理性近视(PM)作为一种可致盲的重度眼病,其早期诊断至关重要。眼底彩色照相(FCP)凭借高保真度和精确性成为传统无创诊断手段,被广泛应用于PM检测。然而,人工判读眼底照片不仅耗时,且误判率较高。现有自动化检测技术尚未实现对PM病变不同阶段的精细化分类诊断。本文提出一种智能诊断系统,通过Resnet101技术对不同病变程度的FCP图像进行多分类,将PM不同发展阶段细分为八个亚类,旨在提升诊断过程的精确性与效率。该系统在PM检测中达到98.86%的平均准确率,曲线下面积(AUC)为98.96%;在八类PM亚型的检测中准确率高达99.63%,AUC达99.98%。与VGG16、Vision Transformer(VIT)、EfficientNet等主流多分类模型相比,本系统展现出更高的准确率与AUC值。该人工智能系统可便捷集成于现有临床诊断工具,为大规模PM筛查提供高效解决方案。
引用:
Jiaqing Zhao, Guogang Cao, Jiangnan He, and Cuixia Dai. Multi-class classification of pathological myopia based on fundus photography. Journal of Innovative Optical Health SciencesVol. 17, No. 06, 2450016 (2024)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545824500160
8.Gates joint locally connected network for accurate and robust reconstruction in optical molecular tomography
光学分子断层成像精准鲁棒重建:门控联合局部连接网络新方法
摘要:
光学分子断层成像(OMT)作为一种极具潜力的临床前分子成像技术,可通过无创方式获取活体动物体内肿瘤分布的三维定量信息,在生物医学多个领域具有广泛应用前景。传统基于模型的重建方法中,光传输模型构建与重建算法应用等环节会影响重建效果,导致精度低、鲁棒性差及耗时长等问题。本研究提出门控联合局部连接网络(GLCN)方法,通过直接建立内部光源分布与表面光子密度的映射关系,有效规避迭代计算的时间消耗与模型失准导致的重建误差。该网络创新性地引入由三个异质门控单元通过拼接与乘法算子构成的门控模块,该模块能持续记忆表面光子密度时序信息,并通过三重门控选择性地激活与真实光源相关的神经元。数值仿真实验表明,该方法在重建定位精度与鲁棒性方面均表现出优越性能。
引用:
Minghua Zhao, Yahui Xiao, Jiaqi Zhang, Xin Cao, and Lin Wang. Gates joint locally connected network for accurate and robust reconstruction in optical molecular tomography.Journal of Innovative Optical Health Sciences. Vol. 17, No. 03, 2350027 (2024)
文章链接:
https://www.worldscientific.com/doi/10.1142/S179354582350027X
9.Artificial neural network-based determination of denoised optical properties in double integrating spheres measurement
基于人工神经网络的双积分球测量光学参数去噪技术
摘要:
精确测定生物组织的光学特性,对于光学诊断与治疗应用中量化理解光在组织中的传输行为至关重要。生物组织的吸收系数(μa)与散射系数(μs)通常通过双积分球(DIS)系统测量的漫反射率(R)和总透射率(T)进行反演分析。然而,传统反演算法(如逆向加倍法、逆向蒙特卡洛法)对DIS测量过程中的噪声信号非常敏感,导致测定精度下降。本研究提出一种人工神经网络(ANN),通过DIS测得的R、T光谱数据反演目标波长的μa与μs,以降低光学参数中的噪声干扰。我们采用光学特性近似模型与蒙特卡洛模拟DIS测量生成包含μa、μs、R、T的光谱数据集,通过向R、T添加测量噪声信号,利用加噪数据集训练ANN模型。数值计算结果表明,训练后的ANN模型能有效抑制μa和μs反演中的噪声影响。实验验证证实,该方法仅需少量扫描次数即可从DIS实测R、T值中获得去噪估计,显著缩短测量时间。研究结果证明了该基于ANN的方法在光学参数测定中具有噪声鲁棒性,有助于缩短DIS测量时间,从而减少因样本脱水导致的光学特性变化。
引用:
Yusaku Takai, Takahiro Nishimura, Yu Shimojo, and Kunio Awazu. Artificial neural network-based determination of denoised optical properties in double integrating spheres measurement.Journal of Innovative Optical Health SciencesVol. 16, No. 06, 2350012 (2023)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545823500128
10.Deep learning method for cell count from transmitted-light microscope
基于深度学习的透射光显微镜细胞计数方法
摘要:
自动细胞计数为医学研究与诊断提供了有效工具。目前透射光显微镜虽可实现细胞计数,但该方法需依赖专业知识,且对重叠细胞的计数精度欠佳。近年来,基于图像转换的检测方法被提出,并展现出实现透射光显微镜自动高效细胞计数的潜力。本研究设计了一种新型深度学习双阶段检测方法cGAN-YOLO,通过结合基于深度学习的荧光图像转换模型与细胞检测模型,进一步提升细胞计数性能。实验结果表明,cGAN-YOLO能有效对透射光显微镜图像中的多种细胞类型进行检测与计数。与先前报道的基于YOLO的单阶段检测方法相比,cGAN-YOLO的识别准确率提升29.80%;相较于已报道的图像转换检测方法,识别准确率也提升12.11%。该技术使得直接基于实验获取的透射光显微镜图像实现高灵活性、高性能的细胞计数成为可能,拓展了其在临床研究中的适用性。
引用:
Mengyang Lu, Wei Shi, Zhengfen Jiang, Boyi Li, Dean Ta, and Xin Liu. Deep learning method for cell count from transmitted-light microscope. Journal of Innovative Optical Health SciencesVol. 16, No. 05, 2350004 (2023)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545823500049
11.Cerebrovascular segmentation from mesoscopic optical images using Swin Transformer
基于Swin Transformer的介观光学图像脑血管分割技术
摘要:
血管分割是生物医学图像处理中的关键任务,对生理与病理状态下血管网络的分析建模具有重要意义。随着荧光标记和介观光学成像技术的发展,现已能够以毛细血管分辨率绘制全脑小鼠血管网络。然而,从介观光学图像中分割血管仍面临挑战:血管信号不连续、管腔结构及背景荧光干扰等问题,均属于血管分割中需要全局语义信息理解的范畴。传统基于卷积神经网络(CNN)的血管分割方法受限于感受野不足,难以捕获血管的全局语义信息,导致分割结果不精确。为此,我们提出基于Swin Transformer的血管分割方法SegVesseler。该方法采用3D Swin Transformer模块提取三维图像中的全局上下文信息,在分割过程中能有效保持血管的连通性与拓扑结构。我们在三种不同标记成像模式生成的小鼠脑血管数据集上评估该方法,实验结果表明其分割效果显著优于传统CNN方法,达到当前最优性能。
引用:
Yuxin Li, Qianlong Zhang, Hang Zhou, Junhuai Li, Xiangning Li, and Anan Li. Cerebrovascular segmentation from mesoscopic optical images using Swin Transformer.Journal of Innovative Optical Health SciencesVol. 16, No. 04, 2350009 (2023)
文章链接:
https://www.worldscientific.com/doi/10.1142/S1793545823500098
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-12-17 22:09
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社