Yiwei Chen 1,2Yi He 1,2,*Hong Ye 1Lina Xing 1,2[ ... ]Guohua Shi 1,2,3
Author Affiliations
Abstract
1 Jiangsu Key Laboratory of Medical Optics, Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou 215163, P. R. China
2 School of Biomedical Engineering (Suzhou), Division of Life Sciences and Medicine, University of Science and Technology of China Hefei 230026, P. R. China
3 Center for Excellence in Brain Science and Intelligence Technology, Chinese Academy of Sciences, Shanghai 200031, P. R. China
The prediction of fundus fluorescein angiography (FFA) images from fundus structural images is a cutting-edge research topic in ophthalmological image processing. Prediction comprises estimating FFA from fundus camera imaging, single-phase FFA from scanning laser ophthalmoscopy (SLO), and three-phase FFA also from SLO. Although many deep learning models are available, a single model can only perform one or two of these prediction tasks. To accomplish three prediction tasks using a unified method, we propose a unified deep learning model for predicting FFA images from fundus structure images using a supervised generative adversarial network. The three prediction tasks are processed as follows: data preparation, network training under FFA supervision, and FFA image prediction from fundus structure images on a test set. By comparing the FFA images predicted by our model, pix2pix, and CycleGAN, we demonstrate the remarkable progress achieved by our proposal. The high performance of our model is validated in terms of the peak signal-to-noise ratio, structural similarity index, and mean squared error.
Fundus fluorescein angiography image fundus structure image image translation unified deep learning model generative adversarial networks 
Journal of Innovative Optical Health Sciences
2024, 17(3): 2450003
作者单位
摘要
1 辽宁工程技术大学 软件学院,辽宁 葫芦岛 125105
2 汕头职业技术学院 计算机系,广东 汕头 515071
现有的层级式文本生成图像的方法在初始图像生成阶段仅使用上采样进行特征提取,上采样过程本质是卷积运算,卷积运算的局限性会造成全局信息被忽略并且远程语义无法交互。虽然已经有方法在模型中加入自注意力机制,但依然存在图像细节缺失、图像结构性错误等问题。针对上述存在的问题,提出一种基于自监督注意和图像特征融合的生成对抗网络模型SAF-GAN。将基于ContNet的自监督模块加入到初始特征生成阶段,利用注意机制进行图像特征之间的自主映射学习,通过特征的上下文关系引导动态注意矩阵,实现上下文挖掘和自注意学习的高度结合,提高低分辨率图像特征的生成效果,后续通过不同阶段网络的交替训练实现高分辨率图像的细化生成。同时加入了特征融合增强模块,通过将模型上一阶段的低分辨率特征与当前阶段的特征进行融合,生成网络可以充分利用低层特征的高语义信息和高层特征的高分辨率信息,更加保证了不同分辨率特征图的语义一致性,从而实现高分辨率的逼真的图像生成。实验结果表明,相较于基准模型(AttnGAN),SAF-GAN模型在IS和FID指标上均有改善,在CUB数据集上的IS分数提升了0.31,FID指标降低了3.45;在COCO数据集上的IS分数提升了2.68,FID指标降低了5.18。SAF-GAN模型能够有效生成更加真实的图像,证明了该方法的有效性。
计算机视觉 生成对抗网络 文本生成图像 CotNet 图像特征融合 computer vision generative adversarial networks text-to-image cotnet image feature fusion 
液晶与显示
2024, 39(2): 180
作者单位
摘要
河北工业大学电子信息工程学院, 天津 300401
随着越来越多的大型光谱巡天计划的实施, 产生了海量的恒星光谱数据, 这对于恒星演化理论的研究具有重大意义, 但也给传统的光谱分类和处理带来极大挑战。 2021年发布的LAMOST DR7(v2.0版本)光谱数据集中, 恒星光谱总量为百万量级, 但其中O型星的数量仅为129条, 远远小于其他六类恒星光谱数量。 对于这种数据量大、 数据集严重不平衡的情况, 传统的机器学习分类方法达不到较好的效果, 因此多用于对相邻两类、 部分类或子类恒星光谱进行分类。 针对以上问题, 使用一维卷积神经网络(CNN)和一维生成对抗网络(GAN)相结合的半监督学习模式对七类恒星光谱进行全分类。 实验首先对每条光谱进行裁剪和去噪, 截取光谱波长范围为370.00~867.16 nm部分, 然后进行均匀采样和归一化, 生成大小为1×3 700的数据集样本, 送入CNN进行训练。 为了避免过拟合并提高模型对未知数据的预测能力, 在CNN的全连接层和池化层之间添加正则项Dropout。 使用该网络对除O型星以外的六类光谱进行分类, 平均分类准确率达到98.08%。 针对O型星数量严重偏少的问题, 采用GAN来扩充数据集。 GAN的输入是1×900大小的噪声信号, 经过生成器中全连接的三层跨步卷积运算, 输出大小为1×3 700的数据。 通过对生成器和判别器进行单独交替迭代训练使GAN收敛, 最终输出所需数量的O型星样本, 达到扩充数据集的目的。 和常见的通过过采样扩充数据集相比, 利用GAN扩充数据集, 结合一维CNN对恒星光谱进行全分类, 可以将O型星的分类准确率由72.92%提升至97.92%, 整个分类器的准确率达到96.28%。 实验结果表明, 使用这种半监督模式的恒星光谱自动分类方法可以实现对七类恒星光谱的快速、 准确分类, 也可以用于对标记为“Unknown”的未分类恒星光谱进行挖掘, 达到充分利用光谱的目的。
恒星光谱 自动分类 卷积神经网络 生成对抗网络 半监督模式 Star spectra Automatic classification Convolutional neural networks Generative adversarial networks Semi-supervised mode 
光谱学与光谱分析
2023, 43(6): 1875
作者单位
摘要
昆明理工大学 信息工程与自动化学院, 昆明 650504
为了解决3维点云补全中难以提取点云局部特征信息的问题, 提出了融合图注意力的多分辨率点云补全网络结构。采用了生成对抗网络框架处理数据的方法, 生成器通过图注意力层构建点云图结构, 融合不同分辨率的特征信息后加上网格数据, 结合折叠操作重构缺失结构并输出逐级补全的点云数据; 判别器判别点云真伪, 通过反馈以提高准确度并优化生成器, 使得生成数据具有精细的几何结构, 近似于真实点云; 在形状数据集上,将本文中的方法与其它4种方法进行比较, 通过实验验证和理论分析, 取得了最优的结果。结果表明, 该方法能够有效地补全点云形状的缺失部分, 得到完整且均匀的点云形状, 相较于点分形网络性能提高约1.79%, 对于实测数据的补全处理也达到了预期效果; 所提出的点云补全网络结构, 在提取点云全局形状特征的同时更好地提取了其局部几何特征信息, 使得补全出的点云形状更加精细。该研究为智慧城市3维建模提供了参考。
激光技术 点云补全 生成对抗网络 图注意力 折叠操作 3维点云 laser technique point cloud completion generative adversarial networks graph attention folding operation 3-D point cloud 
激光技术
2023, 47(5): 700
作者单位
摘要
长春理工大学 电子信息工程学院,吉林 长春 130022
针对近红外图像彩色化过程中因近红外与可见光图像间模态差异较大,导致着色后图像在纹理细节处存在颜色晕染、区域误着色的问题,提出了颜色预测和语义感知相结合的生成对抗网络。设计颜色预测和语义感知双分支生成器,颜色预测分支采用带有跳转连接的残差网络,语义感知分支采用带有语义融合的空洞卷积金字塔结构;不同的扩张率,能够获得多个感受野提取多尺度语义特征,将感知到的语义嵌入到颜色预测分支,提高模型的语义理解能力,改善颜色晕染、区域误着色问题;设计循环一致语义损失函数,约束生成器中语义信息的一致性;算法在RGB-NIR场景数据集上进行性能实验比对以及消融实验。实验表明,所提算法相比于现有彩色化算法,PSNR、SSIM和LPIPS评价指标优于现有算法,着色效果更符合视觉感受。
彩色化 近红外图像 生成对抗网络 颜色预测 语义感知 colorization near-infrared images generative adversarial networks color prediction semantic perception 
光学技术
2023, 49(3): 371
作者单位
摘要
长春理工大学 电子信息工程学院, 吉林 长春 130022
针对单幅偏振图像在一定场景下无法提供充足信息的问题,结合强度图像和线偏振度图像的优势特征,提出一种基于密集梯度生成对抗网络的偏振图像融合算法。利用密集连接卷积网络和梯度算子构建密集梯度卷积模块,并将该模块应用在生成器中,用以增强融合图像的纹理细节; 构造多尺度结构相似度和L1范数相结合的损失函数,用以提高网络的整体性能。在ZJU-RGB-P数据集进行定性比较和定量分析,实验结果表明,所提算法具有更好的主观视觉感受,同时各项评价指标均得到明显提升。
图像融合 偏振图像 生成对抗网络 密集连接卷积网络 image fusion polarization image generative adversarial networks densely connected convolutional networks 
光学技术
2023, 49(3): 354
作者单位
摘要
1 成都信息工程大学大气科学学院,四川 成都 610225
2 台州市气象局网络与装备保障中心,浙江 台州 318000
深度学习技术中的生成对抗网络(GAN)方法由于能够从输入的大量数据中抽取变量特征,生成更为真实的气象图像预测,在遥感领域有较为广泛的应用。但目前该算法在大气运动矢量(AMVs)的反演中应用较少,而AMVs是数值天气预报资料同化系统所需的重要产品资料。基于此,本文提出了利用生成对抗网络pix2pix从静止气象卫星图像反演AMVs的方法,由pix2pix模型将遥感影像转换为200 hPa和850 hPa的矢量风场。在最佳的资料和模型架构条件下,该方法反演得到的AMVs与传统算法所得产品资料质量相当,且克服了传统算法高度订正困难、无法获得某一层面完整风场和低层样本数偏低等缺点。个例分析亦表明,该方法针对具体的天气系统也有良好的表现。
大气光学 气象学 大气运动矢量 深度学习 生成对抗网络 
激光与光电子学进展
2023, 60(17): 1701002
作者单位
摘要
1 火箭军工程大学 作战保障学院,西安 710025
2 火箭军工程大学 核工程学院,西安 710025
针对当前基于条件生成对抗网络的红外图像生成算法中红外生成图像纹理细节信息差和结构信息差的问题,提出了一种基于改进的条件生成对抗网络的红外图像生成算法。首先,基于ConvNext改进了生成网络,在生成网络解码部分通过添加残差连接增强了解码部分对编码部分提取的图像深层特征的利用;其次,生成网络采用UNet网络架构,增强了对图像底层特征的利用;最后,对抗网络通过对生成图像特征的一阶统计量(均值)和二阶统计量(标准差)的损失计算,进一步改善了红外生成图像的灰度信息和纹理细节信息。与现有典型红外图像生成算法的对比实验结果表明,该方法能够生成质量更高的红外图像,在主观视觉描述和客观指标评价上都取得了更好表现。匹配应用实验表明,该算法在可见光图像与红外图像异源匹配任务中体现了较好的应用价值。
红外图像 可见光图像 生成对抗网络 生成网络 对抗网络 匹配应用评价 Infrared image Visible image Generative adversarial networks Generative networks Adversarial networks Matching application evaluation 
光子学报
2023, 52(4): 0410003
何翔 1,2,*
作者单位
摘要
1 福建省计量科学研究院 国家光伏产业计量测试中心,福建 福州 350003
2 福建省能源计量重点实验室,福建 福州 350003
针对半片光伏组件电致发光(electroluminescence,EL)缺陷自动识别过程中训练用样本不足导致模型过拟合的问题,采用深度卷积生成对抗网络(deep convolutional generative adversarial networks,DCGANs)生成可控制属性的半片光伏组件EL图像,再采用多尺度结构相似性(multi-scale structural similarity,MS-SSIM)指标对生成的EL图像与拍摄的EL图像之间的相似程度进行了评估。评估结果得到,使用DCGANs生成的所有类型半片光伏组件的EL图像与拍摄的EL图像的MS-SSIM指标都大于0.55,大部分的MS-SSIM值在0.7附近。在分类模型的训练过程中,测试集准确率随着训练集中生成图像数量的增加而升高,当生成图像数量达到6000张时,测试集准确率达到97.92%。实验结果表明,采用DCGANs能够生成高质量且可控制属性的半片光伏组件EL图像,较好地解决因缺少训练样本而导致的模型过拟合问题。
深度卷积生成对抗网络(DCGANs) 电致发光(EL) 多尺度结构相似性(MS-SSIM) 神经网络 deep convolutional generative adversarial networks (DCGANs) electroluminescence (EL) multi-scale structural similarity (MS-SSIM) neural network 
应用光学
2023, 44(2): 314
作者单位
摘要
1 西南石油大学 电气信息学院, 四川成都60500
2 宜宾市第二人民医院 核医学科, 四川宜宾644000
3 西南石油大学 计算机科学学院, 四川成都610500
由于骨显像存在样本数量有限、类别不平衡的问题,导致骨显像分类存在较大困难。为提升骨显像的分类准确率,本文提出了一种基于结合辅助分类器的生成对抗网络(ACGAN)数据生成和迁移学习的骨显像分类方法。首先,为解决骨显像类别不平衡的问题,设计了一种MU-ACGAN模型。该模型以U-Net为生成器框架,同时结合密集残差连接和通道-空间注意力机制结构来提升骨显像细节特征生成,判别器通过密集残差注意力卷积块提取骨显像特征进行判别;然后,结合传统数据增强方式进一步扩充数据量;最后,设计了一种多尺度卷积神经网络提取骨显像不同尺度的特征,提升分类效果。在模型训练过程中,采用两阶段迁移学习方式,优化模型的初始化参数、解决过拟合的问题。实验结果表明,本文提出方法分类准确率达到了85.71%,有效缓解了小样本骨显像数据集分类准确率不高的问题。
骨显像 结合辅助分类器的生成对抗网络(ACGAN) 迁移学习 注意力机制 数据增强 bone scintigraphy Auxiliary Classifier Generative Adversarial Networks(ACGAN) transfer learning attention mechanism data augmentation 
光学 精密工程
2023, 31(6): 936

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!