光学学报, 2023, 43 (5): 0518002, 网络出版: 2023-02-27   

基于循环生成对抗网络的大视场显微成像方法 下载: 520次

Large-Field Microscopic Imaging Method Based on Cycle Generative Adversarial Networks
付娆 1,2方宇 1,2杨勇 4向东 1,2吴晓静 3,*
作者单位
1 南开大学现代光学研究所,天津 300350
2 天津市微尺度光学信息技术科学重点实验室,天津 300350
3 天津市人民医院,天津 300121
4 之江实验室智能感知研究院,浙江 杭州 310013
摘要
提出了一种利用循环生成对抗网络实现由大视场、低分辨率染色图像生成与之相匹配的高分辨率虚拟染色图像的方法,在完成了对细胞虚拟染色的同时,解决了传统光学显微镜的大视场与高分辨率两个目标无法同时满足的问题。首先,进行了理论验证,通过对选定图像的分辨率分级缩放模拟实际分辨率变化,训练对应的算法模型并与真实图像相比较,结果在主观与客观上均符合设想预期。在完成理论验证的基础上,分别进行了由10倍、4倍低分辨率真实染色图像生成25倍高分辨率虚拟染色图像的实验。通过主观视觉与客观评价指标进行评价,得到结构相似性、峰值信噪比和归一化均方根误差三个指标的具体数据。结果显示,通过循环生成对抗网络生成的虚拟染色图像与真实染色图像间的相似度较高,虚拟生成效果很好。
Abstract
Objective

In traditional optical microscopes, large field of view and high resolution cannot be achieved at the same time. Large numerical aperture objective lens is necessary to obtain high-resolution images, which will inevitably lead to the reduced imaging field of view. Similarly, a small numerical aperture objective lens should be employed to obtain a large imaging field of view, and the corresponding imaging resolution will inevitably decrease. Therefore, when the traditional optical microscope is adopted, a trade-off is needed between imaging resolution and imaging field of view, and it is impossible to obtain large field of view and high-resolution microscopic images simultaneously. With the rapid development of deep learning technology, different algorithm models are designed based on deep learning, and the corresponding pathological cell models are diagnosed in combination with the evaluation and guidance of professional doctors to yield computer-aided calculation and detection effects. Therefore, this paper proposes a method to generate matching high-resolution virtual stained images from low-resolution stained images with large field of view using cycle generative adversarial networks (Cycle-GANs), without changing the optical systems and detector devices. Only ordinary microscopes are employed to obtain staining images with large field of view, and it is unnecessary to convert the multiple objectives to obtain high-resolution images. Virtual high-resolution staining images at any position of the large field of view can be predicted through network model calculation, and the high resolution and large field of view can be realized at the same time.

Methods

In this paper, Cycle-GANs are employed to complete the experiment. Firstly, the data set preparation is carried out, and the unpaired and paired data sets of images under multiple objectives are collected respectively to constitute the training and testing parts of the network model. Secondly, a theoretical pre-experiment is conducted. The resolution of the same stained onion epidermal cell images is scaled to simulate the reduction of image resolution. The resolution of the input images is verified to have a lower limit, and the field of view of the microscope cannot be infinite in actual observation. Then, through imaging and testing the resolution testing board, the experiment of generating 25 times high-resolution virtual images from 10 times low-resolution images is carried out, which proves that Cycle-GANs networks can improve the image resolution. Finally, experiments are carried out to generate 25 times high-resolution virtual staining images corresponding to 10 times and 4 times low-resolution real staining images using stained onion epidermal cells. The corresponding values and results are obtained through subjective vision and objective evaluation indicators.

Results and Discussions

In the experiment of grading and scaling the resolution of the same stained onion epidermal cell images (Fig. 4), the fitting curves of structural similarity index (SSIM) and peak signal-to-noise ratio (PSNR) decrease with the reducing image resolution, while those of normalized root mean square error (NRMSE) increase with the decreasing image resolution (Fig. 5). With the resolution reduced by 32 times, the SSIM value lower than 0.5, and the PSNR value lower than 20, the images can no longer be correctly resolved by human eyes, which proves that the image resolution cannot be infinitely reduced. Then, in the experiment of generating 25 times high-resolution virtual images from 10 times low-resolution images on a resolution testing board (Fig. 6), low-resolution images under 10 times objective in the second row in Fig. 6 are generated by the algorithm as shown in the third row in Fig. 6. The sets of the fourth column and fifth column of the resolution testing board can be well resolved by human eyes, which shows the improvement of image resolution. Finally, in the experiment of generating 25 times high-resolution virtual stained images corresponding to 10 times low-resolution real stained images of onion epidermal cells (Fig. 7), the maximum SSIM, the maximum PSNR, and the minimum NRMSE are 0.684, 23.523 dB, and 0.131, respectively. In the experiment of generating 25 times high-resolution virtual images from 4 times low-resolution images (Fig. 8), the SSIM and PSNR can be as high as 0.597 and 22.322 dB, and the NRMSE is as low as 0.180. Under the analysis of subjective vision or objective evaluation indicators, the results of virtual stained images generated based on Cycle-GANs are close to those of real bright-field stained images under the measurement of various indicators.

Conclusions

Traditional optical microscopes cannot combine large field of view with high resolution. Therefore, this paper proposes a method to generate matching high-resolution virtual stained images from low-resolution stained images with large field of view by Cycle-GANs. This can transform low-resolution stained images with low-power bright field into matching high-power virtual stained high-resolution images. Experimental results show that the characteristic information, such as organelle structures in the bright-field stained images of onion epidermis cells, can be extracted effectively by Cycle-GANs. Finally, virtual cell staining is realized, and staining damage to the tissues is reduced. Additionally, the large field of view and high resolution of the traditional optical microscope can be considered at the same time by inputting low-resolution stained images with a large field of view and outputting high-resolution virtual stained images with a high similarity to high-resolution real stained images with a small field of view. Finally, the differences between the generated virtual stained images and real bright-field stained images are evaluated by subjective vision and objective evaluation indicators. The results show that the virtual stained images generated by Cycle-GANs and real stained images are highly similar under the measurement of various indicators. Therefore, this method can meet the large field of view and high resolution of traditional microscopes. When applied to real life, it can reduce the costs and the burden of doctors and is of great significance in biomedical cell research.

1 引言

在传统的光学显微镜中,大视场和高成像分辨率二者往往无法同时兼顾。若要获得高分辨率图像,则需采用大数值孔径物镜,这必然会导致成像视场的减小。同理,若想获得较大的成像视场,则需采用小数值孔径物镜,相应的成像分辨率必然会降低。因此,在使用传统光学显微镜时,必须在成像分辨率与成像视场之间进行权衡,无法同时获得视场大且分辨率高的显微图像。生物细胞作为有机体最基本的结构和单位,一直是医学和生物界研究的重要目标1,其中对细胞结构进行采集并分析的一个重要的工具就是光学显微镜。因此,实现一次性获取大视场、高分辨率的图像在医学细胞成像领域中具有重要意义。

随着医学领域相关技术的飞速发展,对同类细胞进行检测的需求日益增大。例如,通过观察癌症患者的细胞是否发生病变来判断患者的身体状况是否良好,或是通过检测癌变细胞的数量来判断患者的康复情况。然而,在实际观测中:1)由于细胞本身具有很强的相似性,因此在大量正常细胞中观测病变细胞需要耗费大量人力和物力;2)基于长时间检测后细胞易失活死亡的特性,快速、高效率地观测细胞是否发生病变仍然是一个亟待解决的问题;3)细胞生物学的建立和发展都离不开显微技术,观测细胞最常用的工具是光学显微镜,但光学系统或图像采集系统会在一定程度上限制细胞观测,使得大视场和高分辨率的要求无法同时满足。

在实际观测的过程中,由于大多数细胞具有无色透明、体积极小的特征,故直接用普通光学显微镜进行观察时,细胞和背景反差很小,图像边缘不清晰,难以看清细胞的形态,且细胞的组成与结构不易分辨。因此,在观测前往往需要对细胞进行染色,借助颜色的反衬作用实现更清楚的观察。然而,染色剂会扰乱活体细胞正常的分裂和生命活动,破坏细胞结构,在不能满足细胞实时检测需求的同时还会造成细胞的浪费1

近年来,随着计算机、人工智能和互联网的发展,医疗信息化、数字化的实现成为可能,深度学习技术在图像超分辨领域中取得了许多重大成果2-4。基于深度学习设计不同算法模型,结合专业医生评价与指导,诊断相应病变细胞,达到计算机辅助计算、检测的效果。鉴于此,本文提出采用循环生成对抗网络(Cycle-GANs)来对所采集的数据进行训练并测试,在不改变光学系统和探测器等设备的条件下,仅需通过普通显微镜获取大视场染色图像,不需要进行物镜倍数转换来获取高分辨率图像,通过网络模型计算即可预测出大视场中任意位置的虚拟高分辨率染色图像。实验结果显示,无论是通过主观感受评价还是通过客观评价指标衡量,在大视场、低分辨率的基础上均可得到与小视场、高分辨率的真实图像相似度极高的图像,实现了大视场与高分辨率二者的统筹兼顾。

2 算法理论与模型

2.1 基于深度学习的图像超分算法

随着人工智能的发展与信息技术的革新,机器学习在各项领域中都发挥了极其突出的作用。在许多计算机视觉任务上,计算机视觉技术都已具备了远远超过现代人的能力。机器学习被广泛应用于机器视觉、图像处理等领域中,如图像生成、图像融合、图像分割、图像去噪和图像超分辨率重建等5-14。基于深度学习的图像超分算法在近年来发展迅速。图像超分算法先学习高分辨率与低分辨率之间的映射关系,再利用所学的映射模型实现分辨率提升。其中,基于卷积神经网络的超分辨率重建模型(SRCNN)15被最早用于图像超分辨算法中。这种方法比传统方法效果更好,但是SRCNN只适用于单一尺度,同时还伴随着训练收敛速度慢、计算量大等问题,故训练速度较慢。

当网络深度训练到一定程度时,误差升高的同时梯度消失现象变得更加明显,后向传播无法将梯度反馈到前面的网络层中,前面网络参数无法更新,从而导致训练变差。因此,增强型深度超分辨率重建算法(EDSR)2被提出,其移除了批处理归一化层,降低了计算复杂度和算法运行占用的内存资源,但EDSR的训练速度依旧没得到很大的提升,这大大影响了图像的超分辨效率。

卷积神经网络虽然在解决图像超分辨问题上有了很大的突破,但由于其采用均方误差作为目标函数,该误差函数忽略了高频信息特征,故重建后的图像与人眼视觉观察到的图像不符。针对此问题,Ledig等4首次将生成对抗网络(GANs)引入图像超分辨率重建问题中,提出了基于GANs的图像超分辨率重建算法(SRGAN),该算法打破了人眼感官视觉的局限,成为了第一个将图像放大4倍且与原始图像的相似度很高的算法。然而,由于该算法的生成器网络模型中没有注意力机制,故图像特征表达能力不足,且以 LeakyReLU函数作为激活函数的激活层对不大于0的图像信息数据泛化能力不够,甚至可能出现梯度爆炸。

相较于上述图像超分辨方法,Cycle-GANs算法因其出色的迭代优化能力与快速的训练收敛速度在众多超分辨算法中脱颖而出。Cycle-GANs网络不需要一一对应的配准数据集即可实现图像风格转换,其由两个镜像GANs组成,两个网络中的生成器、判别器和循环一致性损失函数使得生成的虚拟图像与真实图像在分辨率级别上的差距缩到最小,并且能够保证生成图像与真实图像的颜色一致。

2.2 生成对抗网络

机器学习算法大致可以分为监督学习和无监督学习两类16。监督学习的成本高昂,所需数据必须带有标记,故无监督学习逐渐受到大众青睐,其中GANs作为一种新兴的无监督学习生成模型一经提出便备受关注。Goodfellow等17提出了GANs,其在计算机视觉、医学、自然语言处理和风格迁移等领域中的表现非常出色。Wang等18使用一种样式和结构模型(S2-GAN),生成了具有不同风格和结构的图像。Yu等19提出了基于补丁的GANs丢失模型(SN-PatchGAN),构建了一个快速稳定的生成式图像修复系统。Tulyakov等20利用视频生成的运动和内容分解模型(MoCoGAN)实现了视频生成,提高了生成结果的连续性。Koo等21使用深度卷积生成对抗网络模型(DCGAN)实现了对黑白照片的着色。Schlegl等22使用真实数据概率分布和生成数据的相似度模型(WGAN)对病变的视网膜相干断层扫描成像数据进行了检测。

GANs是一种类似于对抗博弈游戏的训练网络,来源于博弈论中的二人零和博弈思想23,两个神经网络以相互博弈的方式来进行学习和优化,通过数次迭代后模型达到纳什平衡状态24。GANs由生成器G和判别器D两个重要部分组成。生成器G主要是生成和真实图像相近似的虚拟图像,判别器D则是判别由G生成的虚拟图像和由数据集获取的真实图像。GD通过对抗训练来实现迭代优化,不断更新相关网络参数,使得G生成的虚拟图像最大可能地接近真实图像。当判别器D每次输出的概率基本为0.5时,模型达到了纳什均衡状态。GANs的模型结构如图1所示。

图 1. GANs模型结构

Fig. 1. Model structure of GANs

下载图片 查看所有图片

2.3 循环生成对抗网络

2017年,Zhu等5基于GANs的理论,提出了一种Cycle-GANs,其模型结构如图2所示。

图 2. Cycle-GANs模型结构

Fig. 2. Model structure of Cycle-GANs

下载图片 查看所有图片

Cycle-GANs是无监督学习的代表,可不断学习模拟数据的分布进而生成和训练数据具有相似分布的样本。在图3中,通过Cycle-GANs可将X空间中的样本转换为Y空间中的样本,即Cycle-GANs的目标是学习从XY的映射函数。Cycle-GANs在GANs的基础上做了一些改进,在运用对抗性损失函数的基础上,引入周期一致性损失函数,二者共同构成该模型的总体损失函数。

图 3. Cycle-GANs模型图示

Fig. 3. Model illustration of Cycle-GANs

下载图片 查看所有图片

设从XY的映射为G,其对应GANs中的生成器GG的作用是使生成的图像Gx)尽可能地相似于Y中的图像。然而,对于G所生成的图像Gx),还需通过GANs中的判别器DY来区分生成的虚拟图像Gx)与真实图像y,即XY的映射和判别器DY的表达式为

LGAN(G,DY,X,Y)=Ey~P(y)lgDY(y)+Ex~P(x)lg1-DYG(x)

式中:x~Px)和y~Py)为原始数据分布;LGAN为判别器的损失函数;E为数学期望。

同理,设从YX的映射为F,Cycle-GANs模型中引入一个判别器DX来判别生成的虚拟图像Fy)与真实图像x之间的相似度。

当实验过程中数据样本容量很大时,Cycle-GANs模型设计了一种周期一致性的映射函数,很大程度上缩小了映射空间,如图3所示。X中的图像x经过两次图像变换后应该与其本身一致,即

FG(x)x

该过程称为前向周期一致性。同理,Y中的图像y也应与x一致,经过周期性图像变换后应回到y,该过程称为后向周期一致性,即

GF(y)y

因此,Cycle-GANs引入的周期一致性函数的计算公式为

LcycG,F=Ex~P(x)FG(x)-x 1+Ey~P(y)GF(x)-y1LG,F,DX,DY=LGAN(G,DY,X,Y)+LGAN(F,DX,Y,X)+λLcycG,FG*=argminGmaxDX,DYLG,F,DX,DYF*=argminFmaxDX,DYLG,F,DX,DY

式中:Lcyc为周期一致性损失函数,其主要目的是确保网络生成的伪图像FGx)]能够还原出符合原始数据分布x~Px)的数据;λDX加权因子,λ越大,降低周期一致性损失就越有意义。

综上,Cycle-GANs构建了一对周期性映射函数GF,一对判别器DYDX,并且通过对抗损失性函数与周期一致性损失函数共同构成了周期性GANs,实现了真正意义上的无监督学习。

3 实验预处理

在对细胞进行实际观察与研究时,研究者能够利用普通光学显微镜获取大视场、低分辨率图像,但由于传统光学显微镜存在大视场与高分辨率无法兼得的特性,故若想进一步研究细胞的形态特征或组成结构,只能通过牺牲视场的方式提高图像分辨率,这在很大程度上阻碍了学者对细胞的深入研究。在医学诊断方面,该缺陷会影响医生观察病人细胞的具体状况,耗费时间精力的同时也使得细胞活性降低,影响诊断结果。

本文预测所输入预处理图片的分辨率会影响Cycle-GANs对图像分辨率的重建与复现效果,所输入预处理图片的分辨率具有一定下限,即在对图像进行实际观测时显微镜的视场不可能无限大。因此,本文在此设想的基础上完成了理论预实验,并通过主观视觉判断和客观评价指标进行分析,各项指标的数据结果证明了该设想的合理性,为后续实验提供了理论参考。

3.1 实验平台及方法

实验所有细胞样品均为洋葱内表皮细胞。将洋葱内表皮细胞制成切片,使用质量分数为1%的稀碘液对切片进行染色处理,使实验观察效果更好。将切片放置在XSP-BM-10CA光学显微镜下成像,并配合使用专业彩色CCD相机对图像进行采集。实验中所用物镜放大倍率分别为4、10、25,数值孔径(NA)分别为0.10、0.25、0.40。CCD相机为SAGA电子目镜,最高分辨率可达到2560 pixel×1922 pixel,单个像素尺寸为2.2 μm,前端镜头倍率为0.45。

实验使用Python语言,计算机配置为Windows 10,内存为64 GB,显卡为GeForce GTX 3080,显卡内存为10 GB,Pytorch版本为1.8.0,CUDA版本为11.1。图像网络模型训练参数如表1所示。

表 1. 图像网络模型训练参数

Table 1. Training parameters of image network model

TypeDescription
Image size(900,900,3)
OptimizerAdam
Learning rate0.0002
Batch size1
Epoch1000
Decay epoch1000
Crop size240

查看所有表

本文基于上文所采集的洋葱内表皮细胞数据集进行实验,分别针对训练集数据和测试集数据进行专业化采集。训练数据集分别在放大倍率为4、10、25的物镜下采集,得到了3组各100张明场染色图像,每组数据集之间没有一对一的对应关系,即保证了数据量的多样性与非统一性,便于计算机进行学习。测试数据集包括30组明场染色图像,其中每组均是在保证切片不发生移动的情况下,只通过转换放大倍率为4、10、25的物镜而采集到的视场固定的不同分辨率的图像。与训练集不同的是,这30组图像各组间要一一对应,为后续分析比较生成虚拟图像与真实图像间的差异做好充分准备工作,实现自动配准。

3.2 客观评价指标

在对生成的虚拟染色图像结果进行评价时,由于在不同环境下,不同的人往往会有不同的感受,故仅依靠主观评价方法不能定性地对图像进行统一分析,难以有定量的实验值作为评估标准。因此,需要引入客观评价标准对图像做出更为准确的评价。

本文引入结构相似性(SSIM)、峰值信噪比(PSNR)和归一化均方根误差(NRMSE)这三个客观评价指标来对图像进行客观评价。

SSIM引入原始图像x和生成的虚拟图像y的亮度、对比度和结构函数三个指标来度量图像相似性。用均值作为亮度的估计,标准差作为对比度的估计,协方差作为结构相似程度的度量,使得SSIM的计算结果更接近人眼观测的主观评价结果。SSIM输出的值越接近1,表明两张图像越相似。当输入的图像与真实的图像完全相同时,SSIM的值为1。SSIM的计算公式25

l(x,y)=2μxμy+c1μx2+μy2+c1c(x,y)=2σxσy+c2σx2+σy2+c2s(x,y)=σxy+c3σxσy+c3MSSIM(x,y)=lα(x,y)cβ(x,y)sγ(x,y)

式中:lx,y、cx,y)和sx,y)分别为两幅图像间的亮度、对比度和结构函数;μx为原始图像x的均值;μy为虚拟生成图像y的均值;μx2x的方差;μy2y的方差;σxyxy的协方差。一般地,c3=c2/2,αβγ的默认值为1。

PSNR是一种使用最广泛的评价图像质量的指标,基于对应像素点间的误差,衡量最大值信号和背景噪声之间的图像质量参考值。由于许多信号都有非常宽的动态范围,故PSNR常用对数分贝单位dB来表示。PSNR值越大,表示两幅图像的相似度越高,图像失真越小。PSNR的计算公式为26

RPSN=10lgL2EMS

式中:L为图像的最大像素值;EMS为均方误差(MSE),指虚拟生成图像与真实图像之差平方的期望值,其可以评价数据的变化程度,MSE值越小,说明两幅图像间有更好的相似度。MSE的计算公式为

EMS=1Nj=1NI(j)-I^(j)2

式中:II^分别为给定大小为N的灰度图和噪声图。

NRMSE是通过对均方根误差(RMSE)进行归一化处理得到的,目的是消除指标间的量纲影响,实现数据标准化。NMRSE表征两幅图像之间的误差,其值越大,两幅图像间的相似度越低,模型复现效果越差。RMSE是MSE的算术平方根,其公式为

ERMS=EMS

3.3 预实验结果

为验证前文猜想,对数据集中25倍的洋葱表皮细胞进行分辨率分级缩放从而完成理论验证。图4给出了其中一幅25倍图像经过6次分辨率缩放后的结果。

图 4. 图像分辨率分级缩放及预测效果

Fig. 4. Graded scaling of image resolution and prediction effect

下载图片 查看所有图片

图4第一行所示的原始25倍图像分辨率为900 pixel×900 pixel,先利用区域插值法缩小25倍细胞图像的分辨率至原图的1/2,如图4第二行所示,此时图像分辨率为450 pixel×450 pixel。然后,利用双三次插值法将缩小后的图像放大2倍,即图像分辨率恢复至900 pixel×900 pixel,如图4第三行所示,命名该行图像为低分辨率的模糊图像LR。LR与原图分辨率保持一致,为后续进行算法输入和比较作铺垫。与原图相比,LR图像质量降低,即缩放后的图像比原图模糊,实现了降低图像分辨率的效果。重复以上步骤,分别将采集到的25倍洋葱表皮细胞图像分辨率缩小为原图的1/2、1/4、1/8、1/16、1/32、1/64,用于后续的数据分析与比较。

将LR图像作为输入,计算机通过算法模型运行后得到对应的虚拟图像,如图4最后一行所示,命名该组图像为高分辨率的清晰图像HR。将HR与真实图像进行比对分析,得出对应客观评价指标SSIM、PSNR、NRMSE的具体数值。对上述6组模型进行一一训练,将得到的全部数据加以筛选整合,从而得出理论验证的最终结果,如表2所示。

表 2. 理论验证的客观评价指标

Table 2. Objective evaluation indexes of theory verification

Image groupSSIMPSNR /dBNRMSE
10.88926.8350.101
20.83526.5120.109
30.65524.6260.142
40.63823.9710.152
50.40719.5500.241
60.39818.6310.265

查看所有表

图5为客观评价指标与图像分辨率缩小因子的关系拟合曲线图。由3.2节可知:SSIM用于度量两幅给定图像之间结构信息的相似性,取值范围为0~1,即SSIM数值越大,两幅图像的结构相似性越高;PSNR通过计算两幅图像之间的像素值来对图像质量进行评价,其值越大,代表两幅图像之间相似度越高;NRMSE的作用是指示模型在预测中产生的误差大小,因此NRMSE越大,表明两幅图像之间的误差越大,相似度越低。

图 5. 客观评价指标与图像分辨率缩小因子的关系拟合曲线图。(a)SSIM;(b)PSNR;(c)NMRSE

Fig. 5. Fitting curve of relationship between objective evaluation index and image resolution reduction factor. (a) SSIM; (b) PSNR; (c) NMRSE

下载图片 查看所有图片

图5可知,SSIM、PSNR的拟合曲线随图像分辨率缩小因子的减小而降低,而NRMSE的拟合曲线随图像分辨率缩小因子的减小而升高,三者趋势均符合各自的数学定义和本文的理论设想,验证了本文设想的正确性与合理性。图4第5列和最后一列对应的图像分辨率缩小因子为1/32和1/64。当图像缩小为原图的1/32时,PSNR值为19.550 dB,从主观视觉评价也能看出,该组图像已经不能被人眼正确分辨,图像质量的失真损失已超过可接受的范围,由此证明图像分辨率不能无限缩小。

3.4 分辨率提升验证

已经验证了在对样本图像进行观察采集时,显微镜的视场不可能无限大这一设想,即输入预处理图片的分辨率会对Cycle-GANs所生成的虚拟图像的质量产生影响。为了更科学地评判Cycle-GANs对所输入图像分辨率提升的影响,使用分辨率板作为实验样本,通过转换不同倍数的显微物镜,根据算法结构的要求对分辨率板的不同分辨率图像进行分类采集,完成了由10倍分辨率板的低分辨率图像生成25倍虚拟高分辨率图像的实验,最终验证了基于Cycle-GANs,输入图像的分辨率会得到质的提升。

实验数据采集目标为LBTEK公司生产的型号为RTS3AB-N的分辨率板。该分辨率板是通过在钠钙玻璃上镀低反射铬膜制作而成的,包含10组(-2~+7)图案,每组元素含有三条水平线和三条竖直线,有效降低了伪分辨率的发生概率。分辨率板尺寸为76.2 mm×76.2 mm,膜层厚度为0.12 μm,线宽公差为±0.5 μm。实验所用到的显微镜系统、计算机配置和图像网络模型训练的具体参数保持不变。

先对放大倍率为4、10、25的物镜下的分辨率板图像各随机采集50张作为train部分,其中trainA部分为50张RTS3AB-N分辨率板的10倍低分辨率图像,trainB部分为50张25倍高分辨率的分辨率板图像,这些图像之间没有对应关系,构成非成对数据集。然后,采集了20组一一对应的4倍、10倍、25倍分辨率板图像作为test部分。在实际采集时,通过只转换放大倍率为4、10、25的物镜从而采集到视场固定的不同分辨率图像,因此test部分中的图像是成对的,即每一张低分辨率图像都有与之相对应的高分辨率图像。

首先,将trainA、trainB这两部分输入到算法中进行非监督式的训练学习。计算机学习分辨率板的不同分辨率图像并自动更新与迭代优化,完成了Cycle-GANs整体的训练过程。然后,将上述数据集中采集到的20组成对图像输入到模型中,计算机会根据算法在训练过程中学习到的思想生成与输入的测试集中的低分辨率图像相对应的虚拟高分辨率图像。图6给出了3组基于Cycle-GANs的虚拟高分辨率图像的成像结果。

图 6. 由10倍分辨率板的低分辨率图像生成25倍高分辨率虚拟图像的结果

Fig. 6. Results of 25× high-resolution virtual images generated from low-resolution images of 10× resolution testing board

下载图片 查看所有图片

图6第一行为10倍物镜下采集到的真实分辨率板图像。图6第二行为在第一行中随机截取的部分图像。图6第三行为利用第二行预测出的虚拟高分辨率图像。图6最后一行为25倍物镜下采集到的真实分辨率板图像。分别对图6第二行至第四行进行了区域特征提取,可以更直观地看到输入与输出的图像分辨率对比。图6第二行中框选的小区域显示,在10倍物镜下采集到的低分辨率图像中,分辨率板的第4、5集合间(三条线称作一个集合)模糊不清,线与线融为一体,无法被人眼识别分辨。然而,在图6第三行中,基于Cycle-GANs算法生成的虚拟高分辨率图像能够很好地被人眼分辨,分辨率板集合间线条清晰,能分辨出的线对数比在10倍物镜下采集到的低分辨率图像多,且与图6第四行中在25倍物镜下采集到的真实分辨率板图像相比,主观视觉上没有明显差异。这既证明了Cycle-GANs的有效性和准确性,又验证了基于Cycle-GANs能够实现图像分辨率的提升。

4 实验结果及分析

在理论验证的基础上,为了使Cycle-GANs模型更好地适配于实际光学显微镜系统,将数据集分为两组进行对照实验。首先,对在显微镜10倍大视场下采集到的图像进行随机局部性区域截取。然后,将截取后的低分辨率图像作为输入,训练由10倍低分辨率模糊图像LR转变为25倍高分辨率清晰图像HR的算法模型。最后,将输出的虚拟图像与真实的采集图像进行比较,并从主观和客观角度分别对虚拟相衬成像效果进行评价,从而验证基于深度学习生成的虚拟图像与标准明场染色显微图像之间无明显差异。由4倍模糊图像LR转变为25倍清晰图像HR的实验操作同上。测试过程中所用的不同倍率的显微图像在同一显微成像装置上采集,只是更换了显微镜物镜的倍数,待采集的细胞样本不发生相对移动,即实现了图像的自动配准。

4.1 主观评价

图像的主观评价是以人作为图像的最终视觉接收者,在一定条件下由多个观测者对待测图像质量优劣和可分辨程度进行主观判断,再对大量评分数据进行统计学处理。图7为由10倍大视场、低分辨率图像转变为25倍小视场、高分辨率图像的三组实验结果。图7第一行为在10倍物镜下采集到的原始真实明场染色显微图像,其分辨率为1280 pixel×960 pixel。图7第二行为计算机在第一行中任意选取的预观测区域,其分辨率为900 pixel×900 pixel。将图7第二行作为输入,生成的基于Cycle-GANs的虚拟染色图像如图7第三行所示。图7第四行为在25倍物镜下采集到的原始真实明场染色显微图像,其分辨率为900 pixel×900 pixel,目的是与第二行对应,实现图像自动配准,使实验结果更精确。

图 7. 由10倍LR生成25倍HR的结果

Fig. 7. Results of 25× HR generated from 10× LR

下载图片 查看所有图片

图7第一行可以看出,虽然已将洋葱表皮细胞染色,但是人眼仍无法很好地分辨细胞的内部结构特征,且在图7第二行中展示的局部放大图中的细胞核模糊,核仁整体结构不明显。从图7第三行中可以看出,在基于Cycle-GANs生成的虚拟染色图像结果中,主观视觉上看,虚拟染色图像与真实明场染色图像间无明显差异,可以很出色地将图7最后一行中的真实明场染色图像的重要特征体现出来,充分体现了Cycle-GANs的优越性。

图8为由4倍大视场、低分辨率图像转变为25倍小视场、高分辨率图像的三组实验结果。图8第一行为在4倍物镜下采集到的原始真实明场染色显微图像,其分辨率为1280 pixel×960 pixel。图8第二行为计算机在第一行中任意选取的观测区域,其分辨率为900 pixel×900 pixel。图8第三行为由第二行作为输入,生成的基于Cycle-GANs的虚拟染色图像。图8最后一行为在25倍物镜下采集到的原始真实明场染色显微图像,其分辨率为900 pixel×900 pixel。

图 8. 由4倍LR生成25倍HR的结果

Fig. 8. Results of 25× HR generated from 4× LR

下载图片 查看所有图片

图8第一行可以看出,在4倍物镜下采集到的真实明场染色图像更加难以被人眼分辨,且由其得到的图8第二行所示的局部放大图中,细胞整体图像质量很差,图像非常模糊,细胞核的基本形状结构已无法分辨。由图8第三行可以看出,通过Cycle-GANs所预测出的虚拟染色图像与图8第四行所示的真实明场染色图像间的相似度依然很高,模型复现效果依然良好,复现后的细胞核形状结构与原始真实图像中的细胞核无明显差异,甚至在图8第四行中真实明场染色图像的细胞壁处于离焦状态时,在Cycle-GANs虚拟生成的图像中,细胞壁也能被清楚地复现出来。

4.2 客观评价

为了更客观地验证虚拟染色图像与真实明场染色图像之间无明显的差异性,选用SSIM、PSNR和NRMSE三个客观评价指标对实验结果进行客观评价。选取了测试结果中的三组细胞进行分析,表3表4分别为由10倍LR、4倍LR图像转变为25倍HR图像的结果。

表 3. 由10倍LR生成25倍HR的客观评价指标

Table 3. Objective evaluation indexes of 25× HR generated from 10× LR

Image groupSSIMPSNR /dBNRMSE
10.68423.5230.131
20.65723.0630.137
30.60322.2790.138

查看所有表

表 4. 由4倍LR生成25倍HR的客观评价指标

Table 4. Objective evaluation indexes of 25× HR generated from 4× LR

Image groupSSIMPSNR /dBNRMSE
10.59722.3220.180
20.59622.2790.182
30.58521.7970.184

查看所有表

需要说明的是:当10倍LR图像转变为25倍HR图像时,其分辨率缩小因子为100/625,所以其客观评价指标的计算结果也应与理论验证部分中缩小因子在1/8~1/4的中间数值的结果相对应;当由4倍LR图像转变为25倍HR图像时,其图像分辨率缩小倍数为10000/390625,其客观评价指标的数值应略低于理论验证部分中缩小因子为1/32的结果。

表3结果显示,当10倍LR图像转变为25倍HR图像时,SSIM、PSNR和NRMSE的数值均在正常范围值之内,SSIM最高达到0.684,PSNR最高可达到23.523 dB,NRMSE最低为0.131。表4结果显示,当4倍LR图像转变为25倍HR图像时,SSIM最高可达0.597,PSNR最高可达22.322 dB,NRMSE最低可达0.180。这表明基于Cycle-GANs生成的虚拟染色图像的结果在各项指标的衡量下均接近于真实明场染色图像的结果。

5 结论

为解决传统光学显微镜大视场和高分辨率无法兼顾的问题,提出了一种利用Cycle-GANs实现由大视场、低分辨率染色图像生成与之相匹配的高分辨率虚拟染色图像的方法,实现了将低倍明场染色低分辨率图像转换为与之相匹配的高倍虚拟染色高分辨率图像。实验结果表明,运用Cycle-GANs可以将洋葱内表皮细胞明场染色图像中的细胞器组织结构等特征信息有效地提取出来,不仅实现了细胞虚拟染色,在一定程度上降低了染色剂对细胞组织的伤害,还通过输入大视场、低分辨率染色图像得到与小视场、高分辨率真实图像相似度很高的虚拟高分辨率染色图像的方法,实现了传统光学显微镜中大视场与高分辨率的统筹兼顾。最后,对生成虚拟染色图像与真实明场染色图像间的差异性进行了主观视觉评价与客观评价,二者结果均显示,基于Cycle-GANs所生成的虚拟染色图像与真实染色图像间的相似度很高。因此,通过该方法可同时满足传统显微镜的大视场与高分辨率要求。该方法运用到生活实际中时,在降低成本和节约时间的同时,减轻了医者的负担,在生物医学领域细胞研究中具有重要的应用价值。

参考文献

[1] BraunbeckT, LammerE. Fish embryo toxicity assays[M]. Heidelberg: German Federal Environment Agency, 2006.

[2] LimB, SonS, KimH, et al. Enhanced deep residual networks for single image super-resolution[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 1132-1140.

[3] BasakH, KunduR, AgarwalA, et al. Single image super-resolution using residual channel attention network[C]//2020 IEEE 15th International Conference on Industrial and Information Systems, November 26-28, 2020, Rupnagar, India. New York: IEEE Press, 2020: 219-224.

[4] LedigC, TheisL, HuszárF, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 105-114.

[5] ZhuJ Y, ParkT, IsolaP, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 2242-2251.

[6] 唐超影, 浦世亮, 叶鹏钊, 等. 基于卷积神经网络的低照度可见光与近红外图像融合[J]. 光学学报, 2020, 40(16): 1610001.

    Tang C Y, Pu S L, Ye P Z, et al. Fusion of low-illuminance visible and near-infrared images based on convolutional neural networks[J]. Acta Optica Sinica, 2020, 40(16): 1610001.

[7] 张文秀, 朱振才, 张永合, 等. 基于残差块和注意力机制的细胞图像分割方法[J]. 光学学报, 2020, 40(17): 1710001.

    Zhang W X, Zhu Z C, Zhang Y H, et al. Cell image segmentation method based on residual block and attention mechanism[J]. Acta Optica Sinica, 2020, 40(17): 1710001.

[8] 朱斯琪, 王珏, 蔡玉芳. 基于改进型循环一致性生成对抗网络的低剂量CT去噪算法[J]. 光学学报, 2020, 40(22): 2210002.

    Zhu S Q, Wang J, Cai Y F. Low-dose CT denoising algorithm based on improved cycle GAN[J]. Acta Optica Sinica, 2020, 40(22): 2210002.

[9] 李素梅, 雷国庆, 范如. 基于卷积神经网络的深度图超分辨率重建[J]. 光学学报, 2017, 37(12): 1210002.

    Li S M, Lei G Q, Fan R. Depth map super-resolution reconstruction based on convolutional neural networks[J]. Acta Optica Sinica, 2017, 37(12): 1210002.

[10] Belthangady C, Royer L A. Applications, promises, and pitfalls of deep learning for fluorescence image reconstruction[J]. Nature Methods, 2019, 16(12): 1215-1225.

[11] 王飞, 王昊, 卞耀明, 等. 深度学习在计算成像中的应用[J]. 光学学报, 2020, 40(1): 0111002.

    Wang F, Wang H, Bian Y M, et al. Applications of deep learning in computational imaging[J]. Acta Optica Sinica, 2020, 40(1): 0111002.

[12] 左超, 冯世杰, 张翔宇, 等. 深度学习下的计算成像: 现状、挑战与未来[J]. 光学学报, 2020, 40(1): 0111003.

    Zuo C, Feng S J, Zhang X Y, et al. Deep learning based computational imaging: status, challenges, and future[J]. Acta Optica Sinica, 2020, 40(1): 0111003.

[13] Qiao C, Li D, Guo Y T, et al. Evaluation and development of deep neural networks for image super-resolution in optical microscopy[J]. Nature Methods, 2021, 18(2): 194-202.

[14] Chen J J, Sasaki H, Lai H, et al. Three-dimensional residual channel attention networks denoise and sharpen fluorescence microscopy image volumes[J]. Nature Methods, 2021, 18(6): 678-687.

[15] DongC, LoyC C, TangX O. Accelerating the super-resolution convolutional neural network[EB/OL]. (2016-08-01)[2022-03-06]. https://arxiv.org/abs/1608.00367.

[16] Pan Z Q, Yu W J, Yi X K, et al. Recent progress on generative adversarial networks (GANs): a survey[J]. IEEE Access, 2019, 7: 36322-36333.

[17] GoodfellowI J, Pouget-AbadieJ, MirzaM, et al. Generative adversarial networks[EB/OL]. (2014-06-10)[2022-03-06]. https://arxiv.org/abs/1406.2661.

[18] WangX L, GuptaA. Generative image modeling using style and structure adversarial networks[M]// Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9908: 318-335.

[19] YuJ H, LinZ, YangJ M, et al. Free-form image inpainting with gated convolution[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Korea (South). New York: IEEE Press, 2019: 4470-4479.

[20] TulyakovS, LiuM Y, YangX D, et al. MoCoGAN: decomposing motion and content for video generation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE Press, 2018: 1526-1535.

[21] KooS. Automatic colorization with deep convolutional generative adversarial networks[EB/OL]. [2022-06-05]. http://cs231n.stanford.edu/reports/2016/pdfs/224_Report.pdf.

[22] SchleglT, SeeböckP, WaldsteinS M, et al. Unsupervised anomaly detection with generative adversarial networks to guide marker discovery[M]// Niethammer M, Styner M, Aylward S, et al. Information processing in medical imaging. Lecture notes in computer science. Cham: Springer, 2017, 10265: 146-157.

[23] Mertens J F, Zamir S. The value of two-person zero-sum repeated games with lack of information on both sides[J]. International Journal of Game Theory, 1971, 1(1): 39-64.

[24] 叶晨, 关玮. 生成式对抗网络的应用综述[J]. 同济大学学报(自然科学版), 2020, 48(4): 591-601.

    Ye C, Guan W. A review of application of generative adversarial networks[J]. Journal of Tongji University (Natural Science), 2020, 48(4): 591-601.

[25] 吴洪伟. 融合频域信息的单图超分辨率重建算法研究[D]. 北京: 北京交通大学, 2021: 8-9.

    WuH W. Research on single image super-resolution reconstruction algorithm fusing frequency domain information[D]. Beijing: Beijing Jiaotong University, 2021: 8-9.

[26] 刘郭琦. 基于深度学习的超分辨率图像研究[D]. 银川: 宁夏大学, 2021: 17-18.

    LiuG Q. Research on super resolution image based on deep learning[D]. Yinchuan: Ningxia University, 2021: 17-18.

付娆, 方宇, 杨勇, 向东, 吴晓静. 基于循环生成对抗网络的大视场显微成像方法[J]. 光学学报, 2023, 43(5): 0518002. Rao Fu, Yu Fang, Yong Yang, Dong Xiang, Xiaojing Wu. Large-Field Microscopic Imaging Method Based on Cycle Generative Adversarial Networks[J]. Acta Optica Sinica, 2023, 43(5): 0518002.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!