激光与光电子学进展, 2020, 57 (14): 141015, 网络出版: 2020-07-28   

基于条件生成对抗网络的低照度遥感图像增强 下载: 996次

Low-Illumination Remote Sensing Image Enhancement Based on Conditional Generation Adversarial Network
作者单位
辽宁工程技术大学电子与信息工程学院, 辽宁 葫芦岛 125105
摘要
为了提高低照度遥感图像的可视性,提出一种基于条件生成对抗网络的低照度遥感图像增强方法。首先,为克服样本数据不足,利用正常清晰光照的图像合成低照度图像作为训练样本;然后,将原始低照度遥感图像由RGB色彩空间转换到HSI色彩空间,进行通道拆分,有效分离H、S、I分量,在保持色调分量H不变的前提下,利用条件生成对抗网络和改进的对数变换方法分别处理亮度分量I和饱和度分量S;最后,执行通道合并将处理后的图像从HSI色彩空间转换到RGB色彩空间。在损失函数中引入焦点损失函数,解决样本比例高度不平衡的问题。实验结果表明:所提方法有效地提升了低照度遥感图像的亮度和对比度,为低照度遥感图像增强方法的研究提供了新的思路。
Abstract
In this study, a method is proposed to enhance the low-illumination remote sensing images based on a conditional generation adversarial network, so as to improve their visibility. First, low-illumination images were synthesized as training samples based on the clear images with normal illumination to solve the problem of insufficient sample data. Then, the original low-illumination remote sensing images were converted from the RGB color space to the HSI color space. Subsequently, channel splitting was performed to effectively separate the H, S, and I components, keeping the hue component H unchanged. Further, the conditional generation adversarial network and the improved logarithmic transformation method were used for processing the luminance component I and the saturation component S, respectively. Finally, channel merging was performed to implement the conversion of processed images from HSI color space to the RGB color space. The phenomenon of highly imbalanced sample proportion can be solved by adding focus loss function to the loss function. The experimental results show that the proposed method effectively improves the brightness and contrast of the low-illumination remote sensing images. Furthermore, this study provides novel concepts with respect to the development of low-illumination remote sensing image enhancement methods.

1 引言

遥感图像在光照条件不足时会出现图像对比度低、色彩失真、饱和度低等现象,进而产生低照度遥感图像,对后续图像的处理产生消极影响。因此,对低照度遥感图像的亮度以及对比度的增强处理具有积极意义[1]。近年来,已有许多种图像增强方法相继被提出,直方图均衡化(HE)可使变换后图像灰度的概率密度呈均匀分布[2]。 Land于1965年提出Retinex算法,它是一种根据人眼的视觉特性以及不同的图像应用场合,模拟大脑视觉皮层成像的方法[3]。随后,出现了单尺度 Retinex算法(SSR)、多尺度 Retinex算法(MSR)和带色彩恢复的 MSR算法(MSRCR)[4]。但SSR不能同时满足动态范围压缩和色彩恒定性,MSR可能会出现色彩失真现象,MSRCR处理的低照度图像的细节并不明显[5]。Dong等[6]利用基于暗通道先验的去雾技术对取反后的低照度遥感图像进行处理,然后将得到的结果再次取反,但增强后的图像在亮度和细节方面仍有不足。

针对以上问题,本文提出一种在HSI色彩空间内利用条件生成对抗网络处理亮度分量以及改进的对数变换增强饱和度的方法,使处理后的图像具有更好的视觉效果。所提方法中增加了焦点损失函数[7],解决了样本不平衡的问题,使增强后的图像亮度与饱和度适中,细节清晰。

2 相关理论

生成式对抗网络(GAN)是当前人工智能学界最为重要的研究热点之一[8]。条件生成对抗网(CGAN)[9]相较于原始GAN增加了条件信息[10],有条件地监督生成器Q生成数据,条件信息y作为生成器和判别器的输入,可以是任意信息,本研究中y为图像信息。同时输入噪声z和条件信息y后,生成器输出生成遥感图像。将真实数据x和条件信息y以及生成遥感图像同时输入到判别器D中,判别器输出判别概率,概率为[0,1]。CGAN的优化过程可以归结为二元极小极大值博弈过程,其目标函数V(D,Q)可表示为

minQmaxDV(D,Q)=Ex~Pdata(x)[lnD(x|y)]+Ez~P(z){ln{1-D[Q(z|y)]}},(1)

式中:E(·)表示分布函数的期望值;Pdata(x)表示真实图像分布;P(z)表示低维的噪声分布[11]。CGAN模型如图1所示。

图 1. CGAN模型

Fig. 1. CGAN model

下载图片 查看所有图片

3 本文方法

3.1 图像增强算法模型

针对当前已有算法的缺陷,本研究在HSI色彩空间内将条件生成对抗网络和改进的对数变换相结合来处理图像。首先,对低照度遥感图像实现从RGB到HSI的转换。通道拆分时,保持色调H不变,利用条件生成对抗网络和改进的对数变换分别增强亮度分量I和饱和度分量S。然后,将H与增强后的I'S'进行通道合并,再转换到RGB空间,得到增强的遥感图像。本文算法流程如图2所示。

图 2. 本文算法流程图

Fig. 2. Flow chart of proposed algorithm

下载图片 查看所有图片

3.2 色彩空间转换

采用几何推导法实现RGB和HSI的相互转换[12]。从RGB空间转到HSI空间的基本公式为

H=θ,BG2π-θ,B>G,(2)I=(R+G+B)/3,(3)S=1-3min{R,G,B}/(R+G+B),(4)

式中:θ=arccos R-G+R-B2(R-G)2+(R-B)(G-B);RGB表示RGB颜色空间中归一化后的任意颜色的3个分量;HSI表示HSI空间中的归一化分量。

从HSI空间转换到RGB空间的基本公式如下:

H0,2π3时,

B=I(1-S)R=I1+ScosH/cosπ3-HG=3I-R-B;(5)

H2π3,4π3时,

H=H-2π3R=I(1-S)G=I1+ScosH/cosπ3-HB=3I-R-G;(6)

H4π3,2π时,

H=H-4π3G=I(1-S)B=I1+ScosH/cosπ3-HR=3I-G-B(7)

3.3 CGAN处理亮度分量

采用CGAN增强图像的亮度分量I,生成网络采用U-Net模型,设计了8个卷积层和8个反卷积层的结构,判别器中定义了5个卷积模块。在损失函数中引入焦点损失和L1-正则化损失函数,对合成的低照度遥感图像和正常光照的遥感图像进行训练和校正。

3.3.1 生成网络

本文方法以不丢失图像信息为前提对图像进行增强。为了更好地保留图像信息,生成器的设计采用了U-Net模型[13],U-Net模型是FCN结构的改进和延伸,包含提取图像特征的下采样过程和还原图像细节信息的上采样过程,即编码阶段和解码阶段。U-Net利用skip connection结构以及编码器与解码器的对称性使得裁剪以及拼接过程更加合理、直观。生成器结构如图3所示。

在对低照度遥感图像进行亮度增强处理时,输入的低照度遥感图像和正常光照的遥感图像有很多相同的信息。U-Net模型使用skip connection结构来减轻网络压力。在生成网络左半部分进行下采样操作,提取低照度遥感图像的特征,展现环境信息;在右半部分进行上采样操作,逐步还原图像精度。所有的卷积层都使用batch normalization层与leaky ReLU激活层。每层卷积后的特征都进行批归一化与dropout操作[14],以加速收敛,避免过拟合。U-Net模型的skip connection结构包含了输入图像的很多信息,有助于还原下采样所带来的信息损失,因此,U-Net的skip connection操作是很有必要的。

图 3. 所设计的生成器结构

Fig. 3. Structure of proposed generator

下载图片 查看所有图片

图 4. 所设计的判别器结构

Fig. 4. Structure of proposed discriminator

下载图片 查看所有图片

3.3.2 判别网络

利用判别器鉴别生成器生成遥感图像与正常光照的遥感图像,尽量把生成器生成的图像和真实图像区分开,使生成器生成与真实图像尽可能相似的遥感图像,并判断图像的真假。判别器的所有卷积层都使用batch normalization层与leaky ReLU激活层,以达到加速收敛,控制过拟合的目的。 如果判别器的输出在(0.5,1)区间,则判别器判别图像为真;如果判别器的输出在(0,0.5)区间,则判别器判别图像为假;若输出值稳定在0.5,则说明生成器生成了判别器无法判别的图像。所设计的判别器最后一层使用 Sigmoid 激活函数,其结构如图4所示。生成器和判别器对每一个隐含层都进行批归一化处理,避免梯度爆炸,加速模型训练[15]

3.3.3 损失函数

设{Ii,i=1,2,…,N}和{Ji,i=1,2,…,N}分别表示低照度遥感图像和相应的正常光照图像。CGAN利用原始目标函数进行训练,损失函数为

LA=1Ni=1Nln[1-D(Ii,J~i)],(8)

式中:D(·)表示判别网络; J~i表示生成器Q的输出。为了保留细节和结构并恢复图像的质量,引入L1-正则化,定义为

L1=1Ni=1N[Q(Ii)-Ji1+λQ(Ii)1],(9)

式中: Q(Ii)1表示总变差正则化; Q(Ii)-Ji1表示基于内容的方向损失;λ表示正则化权重。

样本中不同类别的样本量差异很大,会导致样本量少的分类所包含的特征过少,并很难从中提取规律,即使得到分类模型,也容易产生过度依赖与有限的数据样本导致的过拟合问题,当模型应用到新的数据上时,模型的准确性会很差,因此引入焦点损失函数来解决样本不平衡问题。函数定义为

LF=-ξ(1-pt)γlnpt,(10)

式中:-ln pt表示交叉熵损失函数;ξ表示权重因子;γ为调制因子。本研究中γ=2,ξ=0.25。

通过修改标准的交叉熵损失函数,降低容易分类样本的权重,为交叉熵损失函数增加权重因子ξ,以避免梯度的更新方向由负样本主导。当Pt值很小时,调制因子接近于 1,焦点损失函数不受影响。随着Pt接近1,调制因子接近于0,则容易分类的样本损失函数权重降低,参数γ平滑地调整那些权重被降低的损失函数所占的比例。随着γ增加,其对调制因子的影响也会随之增加,实验中发现γ=2 时效果最佳。

最后,将对抗性损失、L1-正则化和基于内容的像素方式损失与焦点损失函数结合,规范所提出的生成对抗网络。损失函数的定义为

floss=aLA+bL1+cLF,(11)

式中:abc均表示权重[11]。根据(7)式对生成器进行修改,利用(12)式对判别器进行更新

LD=maxD{1Ni=1N{ln[1-D(Ii,J~i)]+ln[D(Ii,Ji)]}}(12)

3.4 饱和度分量处理

H不变的前提下,使用改进的对数变换方法处理S。首先计算饱和度分量S,公式为

S=1-3R+G+B[min(R,G,B)],S(0,1)(13)

Sigmoid函数也称为S型生长曲线, 函数的输出映射在[0,1]区间,单调连续,并且在0.5处中心对称,越靠近x=0,其取值斜率越大。在对数变换中,使用对数函数处理后的图像容易造成图像信息的丢失,Sigmoid函数具有良好的性质,因此,采用自定义Sigmoid函数来代替对数函数。对数函数处理后的图像像素可能出现负值,导致像素超过显示范围,而Sigmoid函数仅考虑0的右边区域。本研究采用切合的Sigmoid函数代替对数函数,调整后的饱和度分量用S'表示,计算公式为

S'=Sigmoid(x)=α1+exp(-kx),(14)

式中:k为曲线的陡峭程度;α为伸缩尺度,用来控制饱和度增强程度。多次实验表明,当k=1.5时,饱和度处理效果最佳,自定义Sigmoid函数与原Sigmoid函数曲线如图5所示。

图 5. Sigmoid函数曲线

Fig. 5. Sigmoid function curves

下载图片 查看所有图片

4 实验与分析

4.1 实验环境与参数设置

以PyCharm为仿真平台,CPU为Inter Core i7-8550,内存为8 GB。使用GPU并行加速,训练前利用正常光照图像合成1501幅低照度遥感图像,其中1050幅作为训练集,451幅作为测试集。模型epoch设置为200,batchsize设置为1,优化算法采用Adam(adaptive moment estimation),学习率为0.0002,采用Python语言,在Tensorflow深度学习框架下完成实验,训练所用时间约为11 h,测试时间约为4 min。

4.2 样本制作

在弱光照图像领域,目前还没有既包含低照度遥感图像又包含与之对应的正常光照遥感图像的数据集。因此,本研究利用正常光照的图像合成低照度图像[16]

本研究选取UC Merced Land Use Dataset[17]遥感图像数据集,数据集中包含农田、建筑物、树丛和海滩等21类场景遥感图像,图像格式均为.jpg,分辨率为1英尺(0.3048 m),分别对256 pixel×256 pixel和380 pixel×380 pixel的图像进行处理。本文算法随机选取1501幅正常光照的遥感图像,然后将图像转换到HSI色彩空间,对亮度I通道图像作伽马变换,得到合成低照度遥感图像的I通道图像 Idark[16],Idark=αIγ,然后用Idark替换I,其他两个通道不变,转回RGB空间得到低照度遥感图像共1501幅,其中1050幅为训练集,451幅为测试集。合成的低照度遥感图像与其对应的正常光照遥感图像如图6所示。

图 6. 合成的低照度遥感图像示例

Fig. 6. Examples of synthetic low-illumination remote sensing images

下载图片 查看所有图片

4.3 实验结果对比

4.3.1 256 pixel×256 pixel图像的实验结果

首先对尺寸为256 pixel×256 pixel的图像进行处理,使用经典算法HE和MSR、MSRCR、Dong算法进行实验分析。在主观评价中,选取UC Merced Land Use Dataset数据集中6幅图像为例进行说明,如图7所示。

图7可以看出,HE、MSR、MSRCR、Dong算法和本文算法均能够对合成的低照度图像进行增强,改善了人的主观感受。通过观察图7(b)~(f)可以发现,HE、 MSR和MSRCR算法可提高图像的亮度,但图像的饱和度过低,并且HE算法出现过曝现象,增强过度。MSRCR算法的增强效果介于HE算法和MSR算法之间,既没有出现HE算法的过曝现象,也比MSR算法保持有稍强的色彩,但仍具有饱和度偏低的现象。Dong算法在部分低照度遥感图像上亮度分量I的提升能力不足,增强后的图像亮度仍然偏低,细节仍不明显,视觉效果欠佳。本文算法是基于学习的算法,对低照度遥感图像的增强效果最好,最接近正常光照遥感图像,亮度和饱和度适中,细节清晰。

4.3.2 380 pixel×380 pixel图像的实验结果

低照度遥感图像以及经过本文算法处理后的图像如图8所示。

图 7. 不同算法对256 pixel×256 pixel图像主观视觉对比。(a)原始图像;(b) HE;(c) MSR;(d) MSRCR;(e) Dong;(f)本文算法

Fig. 7. Comparison of 256 pixel×256 pixel subjective visual images via different algorithms. (a) Original images; (b) HE; (c) MSR; (d) MSRCR; (e) Dong; (f) proposed algorithm

下载图片 查看所有图片

图 8. 380 pixel×380 pixel图像经本文算法处理后的结果

Fig. 8. Results of 380 pixel×380 pixel images processed by proposed algorithm

下载图片 查看所有图片

图8可以看出,本文算法对低照度遥感图像亮度分量的处理取得了显著的效果,在增强原图像暗处的同时,没有出现亮度区域过曝现象。同时,图像的饱和度也得到了增强,增强效果较为自然,有效地保留了图像的细节,具有很好的视觉感受。

4.3.3 重要参数伸缩尺度对结果的影响

在算法的饱和度分量处理过程中,自定义的Sigmoid函数存在的伸缩尺度参数α可用来调节饱和度分量的处理变换程度,参数α的取值不同,所得到的实验结果也不尽相同。选取α=2.1、α=4和α=6,比较不同参数对实验产生的影响,结果如图9所示。

饱和度是指色彩的鲜艳程度,也被称为色彩的纯度。从图9可以看出:当α=2.1时,遥感图像的饱和度可得到一定的增强,但增强效果不明显,与原图像的差异不大;当α=4时,图像的饱和度分量得到明显增强,在视觉上颜色更加鲜艳,拥有良好的视觉感受;当α=6时,处理后的图像颜色更加鲜艳。因此本实验选取α=4。

4.4 图像质量客观评价

在客观评价中,选取峰值信噪比(PSNR)、均方误差(MSE)、结构相似度(SSIM)[18]、图像的对比度(CON)和饱和度(SAT)作为指标来说明算法性能的优劣,得到多幅图像的评价指标及其均值如表1所示。

图 9. α取值不同的实验结果。(a)原始图像;(b) α=2.1;(c) α=4;(d) α=6

Fig. 9. Experimental results of different values of α. (a) Original images; (b) α=2.1; (c) α=4; (d) α=6

下载图片 查看所有图片

表 1. 不同算法的客观评价指标对比

Table 1. Comparison of objective evaluation indexes of different algorithms

MethodDongHEMSRMSRCROurs
PSNR12.67511.21512.50712.76914.710
MSE3152.29571.99212.78996.2462.82
SSIM0.21460.19390.26930.23520.3363
CON1970127355257242528228645
SAT0.26840.12450.15010.30140.5437

查看所有表

PSNR反映图像的失真程度,本文算法的PSNR值最高,失真最少。 MSE反映增强后的图像与原图像之间的差距,其值越小说明增强后的图像亮度越接近原始图像,本文算法的MSE值最小,说明本文算法处理后的结果与原始遥感图像最接近。SSIM表示图像结构信息的完整性,其值可以作为对比原图像和处理后图像结构相似程度的指标,本文算法增强后的图像与原始遥感图像的结构最相似。对比度是图像亮暗的拉伸对比程度,表现了图像画质的清晰程度[19],本文算法处理后的图像对比程度最高,处理后的图像最清晰,视觉效果最好。饱和度是指图像色彩的鲜艳程度,一幅图像的饱和度越大,它的色彩越鲜明,视觉效果也就越好。因此,利用平均饱和度从颜色角度对图像的处理效果进行评价,由多幅图像求取并规范到[0,1]进行比较,由表1可知,本文算法的饱和度值最可观。综上所述,本文算法增强后的遥感图像更加真实自然,视觉上较为逼真,视觉效果良好,细节更加明显,优于所提到的其他算法。

5 结论

根据深度学习理论,利用一种在HSI色彩空间中利用改进的对数变换与条件生成对抗网络相结合的方法对低照度遥感图像进行增强。其中,采用条件生成对抗网络增强图像的亮度,利用改进的对数变换增强图像的饱和度,在损失函数中加入焦点损失函数来消除类别不平衡的现象。通过主观评价和客观评价的综合分析,所提算法在增强了低照度遥感图像的亮度和饱和度的同时,也避免了色彩失真现象,有效地对低照度遥感图像进行了增强。在下一步研究中,将尝试优化网络,使图像更加清晰。

参考文献

[1] 杜泽星, 殷进勇, 杨建. 基于密集连接网络的遥感图像检测方法[J]. 激光与光电子学进展, 2019, 56(22): 222803.

    Du Z X, Yin J Y, Yang J. Remote sensing image detection based on dense connected networks[J]. Laser & Optoelectronics Progress, 2019, 56(22): 222803.

[2] 朱会平, 魏峰远. 探讨图像增强中直方图均衡化的应用[J]. 测绘与空间地理信息, 2010, 33(1): 174-176.

    Zhu H P, Wei F Y. Discussion on the application of histogram equalization in image enhancement[J]. Geomatics & Spatial Information Technology, 2010, 33(1): 174-176.

[3] 邵帅. 空间光学遥感影像的实时清晰度提升技术研究[D]. 北京: 中国科学院大学, 2019.

    ShaoS. Research on image real time definition improvement for space optical remote sensing images[D]. Beijing: University of Chinese Academy of Sciences, 2019.

[4] 邵帅, 郭永飞, 刘辉, 等. HSI色彩空间下的低照度遥感图像增强[J]. 光学精密工程, 2018, 26(8): 2092-2099.

    Shao S, Guo Y F, Liu H, et al. Low-illumination remote sensing image enhancement in HSI color space[J]. Optics and Precision Engineering, 2018, 26(8): 2092-2099.

[5] 李垚峰, 何小海, 吴小强. 改进的带色彩恢复的多尺度Retinex雾天图像增强算法[J]. 计算机应用, 2014, 34(10): 2996-2999, 3023.

    Li Y F, He X H, Wu X Q. Improved enhancement algorithm of fog image based on multi-scale Retinex with color restoration[J]. Journal of Computer Applications, 2014, 34(10): 2996-2999, 3023.

[6] Dong X, Wang G, Pang Y, et al. Fast efficient algorithm for enhancement of low lighting video[J]. Journal of Information and Computation Science, 2011, 10(7): 1-6.

[7] Lin TY, GoyalP, GirshickR, et al. Focal loss for dense object detection[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2980- 2988.

[8] 林懿伦, 戴星原, 李力, 等. 人工智能研究的新前线: 生成式对抗网络[J]. 自动化学报, 2018, 44(5): 775-792.

    Lin Y L, Dai X Y, Li L, et al. The new frontier of AI research: generative adversarial networks[J]. Acta Automatica Sinica, 2018, 44(5): 775-792.

[9] MirzaM, OsinderoS. Conditional generative adversarial nets[EB/OL]. [2019-10-08].https: ∥arxiv.org/abs/1411. 1784.

[10] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[J]. Proceedings of the 27th International Conference on Neural Information Processing Systems, 2014, 2: 2672-2680.

[11] 梁毓明, 张路遥, 卢明建, 等. 基于条件生成对抗网络的图像去雾算法[J]. 光子学报, 2019, 48(5): 0510002.

    Liang Y M, Zhang L Y, Lu M J, et al. Image dehazing algorithm based on conditional generation against network[J]. Acta Photonica Sinica, 2019, 48(5): 0510002.

[12] 龚文斌, 石章松, 韦华. 高分辨率遥感卫星图像不均匀云雾去除算法[J]. 激光与光电子学进展, 2020, 57(6): 061504.

    Gong W B, Shi Z S, Wei H. Nonuniform cloud removal algorithm for high resolution remote sensing satellite images[J]. Laser & Optoelectronics Progress, 2020, 57(6): 061504.

[13] RonnebergerO, FischerP, BroxT. U-net: convolutional networks for biomedical image segmentation[M] ∥Lecture Notes in Computer Science. Cham: Springer International Publishing, 2015: 234- 241.

[14] 贾绪仲. 基于深度学习的图像去雾方法研究[D]. 株洲: 湖南工业大学, 2018.

    Jia XZ. Image dehazing using deep learning[D]. Zhuzhou: Hunan University of Technology, 2018.

[15] Srivastava N, Hinton G E, Krizhevsky A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[16] 程宇, 邓德祥, 颜佳, 等. 基于卷积神经网络的弱光照图像增强算法[J]. 计算机应用, 2019, 39(4): 1162-1169.

    Cheng Y, Deng D X, Yan J, et al. Weakly illuminated image enhancement algorithm based on convolutional neural network[J]. Journal of Computer Applications, 2019, 39(4): 1162-1169.

[17] YangY, NewsamS. Bag-of-visual-words and spatial extensions for land-use classification[C]∥Proceedings of the 18th SIGSPATIAL International Conference on Advances in Geographic Information Systems, November 2-5, 2010, San Jose, California. New York,USA: ACM Press, 2010: 270- 279.

[18] 余婷. 基于SSIM的非局部全变分去噪方法研究[D]. 西安: 西安电子科技大学, 2014.

    YuT. A study of nonlocal total variation for image denoising based on SSIM[D]. Xi'an:Xidian University, 2014.

[19] 苏金凤, 张贵仓, 汪凯. 结合鲁棒主成分分析和非下采样轮廓波变换的红外与可见光图像的压缩融合[J]. 激光与光电子学进展, 2020, 57(4): 041005.

    Su J F, Zhang G C, Wang K. Compressed fusion of infrared and visible images combining robust principal component analysis and non-subsampled contour transform[J]. Laser & Optoelectronics Progress, 2020, 57(4): 041005.

彭晏飞, 杜婷婷, 高艺, 訾玲玲, 桑雨. 基于条件生成对抗网络的低照度遥感图像增强[J]. 激光与光电子学进展, 2020, 57(14): 141015. Yanfei Peng, Tingting Du, Yi Gao, Lingling Zi, Yu Sang. Low-Illumination Remote Sensing Image Enhancement Based on Conditional Generation Adversarial Network[J]. Laser & Optoelectronics Progress, 2020, 57(14): 141015.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!