光学学报, 2018, 38 (9): 0910002, 网络出版: 2019-05-09   

协作稀疏字典学习实现单幅图像超分辨率重建 下载: 883次

Collaborative Sparse Dictionary Learning for Reconstruction of Single Image Super Resolution
邱康 1,*易本顺 1,2,*向勉 1肖进胜 1,2
作者单位
1 武汉大学电子信息学院, 湖北 武汉 430072
2 地球空间信息技术协同创新中心, 湖北 武汉 430079
摘要
字典的选择影响基于稀疏编码的图像超分辨率重建模型的重建质量。提出了一种基于协作稀疏表达的字典学习算法。在训练阶段,通过K-Means聚类算法将样本图像块划分为不同的聚类;构建基于同时稀疏约束条件的协作稀疏字典学习模型对每个聚类训练高、低分辨率字典;应用基于L2范数的稀疏编码模型将图像超分辨率重建过程中输入图像块由低分辨率到高分辨率的映射转变为简单的线性映射,并针对不同聚类求得相应的线性映射矩阵。在重建阶段,输入图像块通过搜索与自身结构最相似的聚类来选择相应映射矩阵获得重建后的高分辨率图像。结果表明,本文算法通过改进字典学习过程实现了更好的图像超分辨率重建质量。
Abstract
Performance of sparse coding based on image super resolution reconstruction model is influenced by dictionary selection. A dictionary learning algorithm based on collaborative sparse representation is proposed. In training stage, training image patches are grouped into different clusters by applying K-means clustering algorithm. A series of high- and low- resolution dictionaries are trained over every clusters by collaborative sparse dictionary learning model which is based on constraint of simultaneously sparse. The complex mapping relationship between low-and high-resolution image patches is transformed into a simple linear mapping by using an L2-norm based sparse coding model, and a series of mapping matrices corresponding to each different clusters are obtained. In reconstruction stage, each input image patch is mapped to a high-resolution patch by a mapping matrix which is selected by searching out the cluster with largest similarity to input patch. Experimental results show that the proposed method achieves better reconstruction quality by improving the dictionary learning process.

1 引言

图像超分辨率(SR)重建的目标是从低分辨率(LR)图像恢复出对应的高分辨率(HR)图像。成像设备由于受硬件成本、成像环境等的制约,获取图像的空间分辨率受到限制,因此对SR的研究得到了大量的关注。目前主流的SR方法主要分为:基于插值的方法、基于重建的方法和基于学习的方法。

传统基于插值的方法假设图像局部是线性光滑的,根据这一假设通过已知像素点估计待插值像素点。由于人类视觉感知系统对图像边缘信息更敏感,也有学者提出了边缘引导插值方法改善边缘信息[1-2]。基于插值的方法算法复杂度低,执行速度快,但在恢复图像边缘以及高频细节信息方面有较大的局限。

基于重建的方法将图像先验信息,如梯度轮廓[3]、非局部自相似性[4]等,作为约束条件引入SR重建模型。这类方法在保留图像边缘信息和抑制伪影方面有一定的改进,但是仍然面临作为约束条件的先验信息往往难以选择、建模参数难以估计等问题。

基于学习的方法通过训练样本图像学习LR和HR间的映射关系,然后利用学习到的映射关系将LR映射到HR实现SR重建。这类方法由于可以通过训练样本引入更丰富的高频细节信息而获得更好的重建质量,因此获得越来越多的关注。文献[ 5]提出局部线性嵌入(LLE)方法,该方法基于流形假设,利用近邻图像块间的局部线性性质实现SR重建。文献[ 6-7] 假设在合适的稀疏字典下,LR/HR图像块有相同的稀疏表示系数,并利用这一性质提出基于稀疏编码的超分辨率重建(SCSR)方法。文献[ 8]提出了一种耦合特征空间下的字典学习方法,在独立学习LR/HR字典的同时学习LR到HR稀疏表示系数间的映射矩阵。文献[ 9]将层次聚类与稀疏表示相结合,实现了一种新的基于层次聚类的图像超分辨率重建算法。随着深度学习理论的发展,基于深度学习的方法也开始应用于图像SR重建。文献[ 10-12]通过样本图像训练深度卷积神经网络,利用该网络将LR的插值图像映射到HR。文献[ 13]则通过在网络中引入去卷积层实现将LR直接映射到HR,也取得不错的效果。

传统基于学习的方法往往耗时较长。为改进时间效率,文献[ 14]和[15]在SCSR基础上将L1范数约束条件松弛为L2范数,从而将复杂的稀疏编码求解过程简化为简单的线性映射。文献[ 16]和[17]通过聚类将具有不同结构信息的样本图像块划分到不同子空间,然后在各子空间训练LR到HR的映射矩阵。然而这些方法在训练阶段往往采用传统稀疏字典学习方法,字典中原子的选择没有针对图像块结构信息进行约束,得到的字典缺少代表性,影响重建质量。由于具有相似结构的图像块也具有相似的稀疏分解模式[18],利用这一性质(同时稀疏)来约束稀疏字典的选择,本文提出了一种基于协作稀疏表达的LR/HR字典学习算法,通过改进稀疏字典的选择来提高SR重建质量。

2 基于稀疏编码的图像超分辨率重建原理

在给定LR/HR稀疏字典对Dl/Dh的情况下,对于输入的LR图像块,其稀疏系数可以通过如下模型求解:

minαDlα-y22+λα0,(1)

式中Dl为LR字典,y为输入LR图像块,α为该图像块稀疏表示系数,λ是一个正常数,保证(1)式有稳定解。由于(1)式是一个非确定性多项式(NP-Hard)问题,因此实践中可以将L0范数约束条件松弛为L1范数约束条件,即

minαDlα-y22+λα1(2)

在求解得到LR图像块的稀疏表示系数α后,相应的HR图像块x的重建式为

x=Dhα(3)

LR/HR稀疏字典对Dl/Dh由样本训练得到。为保证LR/HR图像块有相同的稀疏表示系数,Dl/Dh由如下模型联合学习:

minDh,Dl,A1nlDlA-YF2+1nhDhA-XF2+λ1nl+1nhA1,(4)

式中YX为从样本图像中提取的所有图像块向量化后构成的矩阵,A为各个图像块的稀疏表示系数向量构成的矩阵,nlnh为提取的LR/HR图像块向量化后的维度。

3 本文算法的实现

3.1 基于协作稀疏的LR/HR字典学习

与文献[ 16]所述算法类似,在学习稀疏字典前,通过K-means聚类算法将样本图像块YX分为K个聚类 (Yk/Xk)k=1K,ckk=1KYk的聚类中心,然后针对每个聚类学习LR到HR的映射函数。但是文献[ 16]省略了字典学习过程,直接从与聚类中心相近的聚类中选择原始样本图像块作为字典。这样虽然节省了字典训练时间,但是也会存在字典代表性不足的问题。由于每个聚类中的图像块具有相似的结构,从而具有相似的稀疏分解模式。因此与文献[ 16]不同,将这种稀疏分解模式的相似性作为约束条件应用于每个聚类(Yk/Xk)的稀疏字典学习过程,以提高字典学习的准确性,构建字典学习模型。字典学习模型为

minDhk,Dlk,Ak1nlDlkAk-YkF2+1nhDhkAk-XkF2+λ1nl+1nhi=1MAik2,k=1,2,,K,(5)

式中DlkDhk分别表示第k个聚类(Yk/Xk)所对应的LR/HR字典,字典大小为M,矩阵Ak的列向量为聚类中图像块的稀疏表示向量,Aik表示Ak的第i个行向量。约束项 i=1MAik2被定义为L2,1范数[19],在聚类图像块的稀疏表示中引入同时稀疏性,即协作稀疏,其结果如图1所示。

图 1. 基于L2,1范数的协作稀疏表示结果

Fig. 1. L2,1-norm based on collaborative sparse representations

下载图片 查看所有图片

通过优化目标函数(5)式可以获得与各聚类相应的HR/LR字典。而(5)式是一个半凸函数,即当分别固定DlkDhkAk时,(5)式都是凸函数,因此该目标优化问题可以通过交替优化DlkDhkAk达到最优解[20]

对于第k个聚类(Yk/Xk),当固定DlkDhk时,目标函数变为

minAk1nlDlkAk-YkF2+1nhDhkAk-XkF2+λ1nl+1nhAk2,1(6)

这是一个凸优化问题,为实现快速收敛,应用交替方向乘子算法(ADMM)求解。为此,目标函数(6)式改写为如下等价形式:

minAk1nlDlkS-YkF2+1nhDhkS-XkF2+λ1nl+1nhAk2,1s.t.Ak=S(7)

其增广拉格朗日函数形式为

Lμ(Ak,S,U)=A1nlDlkS-YkF2+1nhDhkS-XkF2+λ1nl+1nhAk2,1+μS-Ak+U2μF2,(8)

式中:U为拉格朗日乘子;μ为一个正常数,用来控制算法收敛速度,一般设为0.1。通过ADMM将(8)式转换为如下交替迭代过程:

Sj+1=minS1nlDlkS-YkF2+1nhDhkS-XkF2+μS-Kkj+Uj2μF2,(9)

Ak(j+1)=minAkS(j+1)+Uj2μ-AkF2+λμ1nl+1nhAk2,1,(10)

式中j表示迭代次数。目标函数(9)式的解析解为

S(j+1)=1nlDlkTDlk+1nhDhkTDhk+μI-11nlDlkTYk+1nhDhkTXk+μAkj-12Uj,(11)

式中I表示单位矩阵。目标函数(10)式可以通过向量软阈值函数对构成Ak的每个行向量Aik逐个求解[21],解为

Aik(j+1)=vect-soft(Vi,η)=Vimax{Vi2-η,0}max{Vi2-η,0}+η,(12)

式中V=S(j+1)+Uj2μ,ViV的第i个行向量,η=λ2μ1nl+1nh。拉格朗日乘子通过下式更新:

U(j+1)=Uj+μ(S(j+1)-Ak(j+1)](13)

当固定Ak时,稀疏字典对Dlk/Dhk通过优化如下目标函数更新:

minDlk,Dhk1nlDlkAk-YkF2+1nhDhkAk-XkF2(14)

进一步通过下式得到最优解:

Dlk=YkATk(AkATk)-1,Dhk=XkATk(AkATk)-1(15)

通过以上方法,可得到与K个聚类中心ckk=1K相对应的K个字典对 (Dlk/Dhk)k=1K

3.2 基于稀疏编码的超分辨率图像重建

对于任意LR图像块y,通过比较其与各聚类中心ckk=1K的欧氏距离找到与其最相似的聚类,并应用该聚类对应的稀疏字典Dlk/Dhk构建稀疏编码模型。由于L1范数约束下的稀疏编码模型(1)式求解困难,导致SR算法复杂度高、重建耗时长等问题。为降低SR算法复杂度,提高算法效率,采用与文献[ 14]相同的方法,将稀疏编码模型(2)式的L1范数约束条件松弛为L2范数约束条件,得到如下稀疏编码模型:

minαDlkα-y22+λα2,(16)

该模型有解析解:

α^=(DTlkDlk+λI)-1DTlky,(17)

待重建的HR图像块为

x^=Dhkα^=Dhk(DTlkDlk+λI)-1DTlky(18)

由于稀疏字典对 (Dlk/Dhk)k=1K通过线下学习,由(18)式可看出,LR图像块SR重建过程被变成了简单的线性映射问题。通过训练阶段获得的稀疏字典对可以得到K个映射矩阵:

Pk=Dhk(DTlkDlk+λI)-1DTlk,k=1,2,,K(19)

LR图像SR重建详细流程如下:

1) 分割LR图像得到一组图像块Y=(y1,y2,…,yL),为保证SR重建时相邻图像块边缘间的连续性,分割图像块时相邻图像块间包含一定的重叠区域。

2) 对每个图像块yiY通过计算欧氏距离找到与其最相似的聚类中心ck

3) 通过xi=Pkyi映射得到对应的HR图像块。

4) 将映射得到的所有HR图像块(x1,x2,…,xL)按与(y1,y2,…,yL)对应的位置重组为HR图像。

4 实验结果

4.1 算法参数性能影响分析

为验证本文算法,采用文献[ 6]提供的91幅图像作为样本图像进行训练。测试图像如图2所示,按从左至右的次序依次编号为1~8。采用峰值信噪比(PSNR)和结构相似度(SSIM)作为客观评价指标。

图 2. 测试图像

Fig. 2. Test images

下载图片 查看所有图片

在字典学习阶段,为设置合适的迭代次数,分别测试了字典大小M为512、1024、1536和2048时,稀疏字典学习模型(5)式的目标函数值随迭代次数收敛情况,结果如图3(a)所示。由图3可知,算法在迭代次数为15~20时已能快速收敛,且随着M的增加,目标函数将收敛到更小的值。

聚类数K对重建质量有着重要影响,当K值较小时,每个聚类中图像块间的相似性会减弱,当K值较大时,训练得到的稀疏字典代表性会减弱,这些都会降低图像重建质量。为验证K值对图像重建质量的影响,在20~600之间以20的间隔取30个值作为聚类数K的值进行图像重建实验,结果如图3(b)所示。由图可知,当K值在200~350之间时,重建效果最好。

为测试不同字典大小M对重建质量的影响,在256~2048之间按256的间隔取8个值分别作为字典大小进行图像重建实验,结果如图3(c)所示。由图可知,图像重建质量随着字典大小增加而改善,当字典大小大于1024时,重建图像的PSNR值基本不变。

测试了参数λ在不同取值情况下的算法重建性能,结果如图3(d)所示。结果显示λ在0.0075~0.015区间取值时,算法性能最优且结果基本稳定。

图 3. (a)目标函数(5)式随迭代次数增加而收敛的情况;(b)聚类数K取不同值时的平均PSNR;(c)字典大小M取不同值时的平均PSNR;(d)参数λ取不同值时的平均PSNR

Fig. 3. (a) Convergence of objective function Eq. (5) along with the increasing of iteration number; (b) average PSNR with different clustering number K; (c) average PSNR with different dictionary size M; (d) average PSNR with different λ

下载图片 查看所有图片

4.2 实验结果与性能比较

为评价本文算法性能,用本文算法对测试图片进行3倍超分辨率重建实验,并将测试结果与双三次方插值算法、局部线性邻域嵌入(NE+LLE)算法[5]、基于稀疏编码(SCSR)算法[6]、Zeyde算法[7]、锚定邻域回归(ANR)[14]及其改进的方法(A+)[15]和基于卷积神经网络(SRCNN)[10]等SR重建算法进行比较。待比较的基于学习的算法与本文算法一样,均采用文献[ 6]提供的91幅图像作为样本图像进行训练。

在训练阶段,HR图像块从样本图像中提取,图像块大小为9×9。LR图像块由对应的HR图像块经高斯模糊后下采样得到,采样因子为3。聚类因子设置为K=300,字典大小设置为M=1024,字典学习算法迭代次数设置为20。在重建阶段,从待重建图像中提取LR图像块,图像块大小为3×3,相邻图像块间重叠部分大小为2。参数λ设为0.01。

实验结果如表1所示,可以看出本文算法在PSNR和SSIM等客观指标上都取得了明显的改进。平均PSNR较其他算法提高了0.24 dB,平均SSIM提高了0.013。图4图5为测试图片超分辨率重建的实际效果。

表 1. PSNR (dB)与SSIM性能比较

Table 1. Performance of magnification in PSNR (dB) and SSIM

No.PSNR/SSIM
BicubicNE+LLESCSRZeydeANRA+SRCNNProposed
121.59/0.68122.36/0.73822.31/0.73722.34/0.73622.43/0.74222.81/0.76322.75/0.76122.97/0.776
228.43/0.88529.44/0.90529.10/0.89429.43/0.90529.52/0.90729.91/0.91429.93/0.91230.08/0.923
333.91/0.90535.06/0.92234.29/0.90535.08/0.92235.13/0.92335.21/0.92435.31/0.91735.46/0.936
429.67/0.90531.51/0.92831.06/0.91431.61/0.93031.56/0.92932.08/0.94031.97/0.94132.33/0.953
527.84/0.85029.09/0.88128.90/0.87229.07/0.88029.16/0.88229.28/0.89129.18/0.89029.45/0.904
623.71/0.87924.94/0.90424.98/0.89525.23/0.91525.03/0.90626.09/0.91625.48/0.89726.27/0.927
727.90/0.84728.48/0.86628.35/0.85728.48/0.86728.49/0.86728.60/0.87328.71/0.87528.93/0.886
823.42/0.79924.77/0.84224.66/0.82725.17/0.85524.77/0.84225.21/0.87525.34/0.87925.58/0.891
Mean27.06/0.84428.21/0.87327.96/0.86328.30/0.87628.26/0.87528.65/0.88728.58/0.88428.89/0.900

查看所有表

图 4. 不同方法实现第1幅图像超分辨率重建的视觉结果比较。(a)原始HR图像;(b) Bicubic算法;(c) NE+LLE算法;(d) SCSR算法;(e) Zeyde算法;(f) ANR算法;(g) A+算法;(h) SRCNN算法;(i)本文算法

Fig. 4. Visual comparisons of different SR results on No. 1 image using different methods.(a) Original HR image; (b) Bicubic algorithm; (c) NE + LLE algorithm; (d) SCSR algorithm; (e) Zeyde algorithm; (f) ANR algorithm; (g) A+ algorithm; (h) SRCNN algorithm; (i) proposed algorithm

下载图片 查看所有图片

图 5. 不同方法实现第3幅图像超分辨率重建的视觉结果比较。(a)原始HR图像;(b) Bicubic算法;(c) NE+LLE算法;(d) SCSR算法;(e) Zeyde算法;(f) ANR算法;(g) A+算法;(h) SRCNN算法;(i)本文算法

Fig. 5. Visual comparisons of different SR results on No. 3 image using different methods.(a) Original HR image; (b) Bicubic algorithm; (c) NE + LLE algorithm; (d) SCSR algorithm; (e) Zeyde algorithm;(f) ANR algorithm; (g) A+ algorithm; (h) SRCNN algorithm; (i) proposed algorithm

下载图片 查看所有图片

本文算法与其他基于学习的算法的平均重建耗时对比如表2所示。ANR算法与A+算法利用L2范数作为稀疏约束项,从而将重建阶段复杂的稀疏编码过程简化为线性映射。由表2可知,本文算法

执行效率比其他算法有了显著提高;平均重建耗时与ANR算法和A+算法相当。可见,由于改进了稀疏字典学习算法,因此在图像重建质量上取得了更好的结果。

表 2. 不同算法的平均重建耗时

Table 2. Average running time of different methods

ItemMethod
NE+LLESCSRZeydeANRA+SRCNNProposed
Average running time /s21.1086.225.130.770.879.620.81

查看所有表

5 结论

提出了一种基于协作稀疏的LR/HR字典联合学习算法用于实现单帧图像SR重建。算法以图像的稀疏性作为先验约束条件,在训练阶段通过K-Means聚类算法将样本图像块划分为不同的类,并对不同的聚类训练相应的LR/HR字典。在训练字典时通过基于L2,1范数的协作稀疏模型引入同时稀疏性作为约束条件,以利用聚类中图像块的稀疏分解相似性获得更准确的字典。在重建阶段以L2范数作为稀疏约束条件来提高算法重建效率。通过实验验证,本文算法与其他典型SR重建算法相比实现了更好的重建质量,在PSNR和SSIM等客观指标上分别提高了0.24 dB和0.013。

参考文献

[1] Chen Q B, Sun H B, Zhang X C, et al. Algorithm and VLSI architecture of edge-directed image upscaling for 4k display system[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 26(9): 1758-1771.

[2] Hung K W, Siu W C. Robust soft-decision interpolation using weighted least squares[J]. IEEE Transactions on Image Processing, 2012, 21(3): 1061-1069.

[3] Yan Q, Xu Y, Yang X K, et al. Single image superresolution based on gradient profile sharpness[J]. IEEE Transactions on Image Processing, 2015, 24(10): 3187-3202.

[4] Ren C, He X H, Teng Q Z, et al. Single image super-resolution using local geometric duality and non-local similarity[J]. IEEE Transactions on Image Processing, 2016, 25(5): 2168-2183.

[5] ChangH, Yeung DY, XiongY. Super-resolution through neighbor embedding[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2004, 1: 275- 282.

[6] Yang J, Wright J, Huang T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

[7] ZeydeR, EladM, ProtterM. On single image scale-up using sparse-representations[C]∥International Conference on Curves and Surfaces, 2010, 6920: 711- 730.

[8] 詹曙, 方琪, 杨福猛, 等. 基于耦合特征空间下改进字典学习的图像超分辨率重建[J]. 电子学报, 2016, 44(5): 1189-1195.

    Zhan S, Fang Q, Yang F M, et al. Image super-resolution reconstruction via improved dictionary learning based on coupled feature space[J]. Acta Electronica Sinica, 2016, 44(5): 1189-1195.

[9] 曾台英, 杜菲. 基于层次聚类的图像超分辨率重建[J]. 光学学报, 2018, 38(4): 0410004.

    Zeng T Y, Du F. Image super-resolution reconstruction based on hierarchical clustering[J]. Acta Optica Sinica, 2018, 38(4): 0410004.

[10] Dong C, Loy C C, He K M, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307.

[11] 肖进胜, 刘恩雨, 朱力, 等. 改进的基于卷积神经网络的图像超分辨率算法[J]. 光学学报, 2017, 37(3): 0318011.

    Xiao J S, Liu E Y, Zhu L, et al. Improved image super-resolution algorithm based on convolutional neural network[J]. Acta Optica Sinica, 2017, 37(3): 0318011.

[12] 郑向涛, 袁媛, 卢孝强. 自外而内的单幅图像超分辨率复原算法[J]. 光学学报, 2017, 37(3): 0318006.

    Zhen g X T, Yuan Y, Lu X Q. Single image super-resolution restoration algorithm from external example to internal self-similarity[J]. Acta Optica Sinica, 2017, 37(3): 0318006.

[13] 孙超, 吕俊伟, 李健伟, 等. 基于去卷积的快速图像超分辨率方法[J]. 光学学报, 2017, 37(12): 1210004.

    Sun C, Lü J W, Li J W, et al. Method of rapid image super-resolution based on deconvolution[J]. Acta Optica Sinica, 2017, 37(12): 1210004.

[14] TimofteR, DeV, Gool LV. Anchored neighborhood regression for fast example-based super-resolution[C]∥IEEE International Conference on Computer Vision, 2013: 1920- 1927

[15] TimofteR, Smet VD, Gool LV. A+: Adjusted anchored neighborhood regression for fast super-resolution[C]∥Asian Conference on Computer Vision, 2014, 9006: 111- 126.

[16] Zhang Y B, Zhang Y L, Zhang J, et al. CCR: clustering and collaborative representation for fast single image super-resolution[J]. IEEE Transactions on Multimedia, 2016, 18(3): 405-417.

[17] Zhang K B, Tao D C, Gao X B, et al. Learning multiple linear mappings for efficient single image super-resolution[J]. IEEE Transactions on Image Processing, 2015, 24(3): 846-861.

[18] MairalJ, BachF, PonceJ, et al. Non-local sparse models for image restoration[C]∥IEEE International Conference on Computer Vision, 2010: 2272- 2279.

[19] NieF, HuangH, CaiX, et al. Efficient and robust feature selection via joint l2,1-norms minimization[C]∥International Conference on Neural Information Processing Systems, 2010: 1813- 1821.

[20] Gorski J, Pfeuffer F, Klamroth K. Biconvex sets and optimization with biconvex functions: a survey and extensions[J]. Mathematical Methods of Operations Research, 2007, 66(3): 373-407.

[21] Wright S J, Nowak R D. Figueiredo M A T. Sparse reconstruction by separable approximation[J]. IEEE Transactions on Signal Processing, 2009, 57(7): 2479-2493.

邱康, 易本顺, 向勉, 肖进胜. 协作稀疏字典学习实现单幅图像超分辨率重建[J]. 光学学报, 2018, 38(9): 0910002. Kang Qiu, Benshun Yi, Mian Xiang, Jinsheng Xiao. Collaborative Sparse Dictionary Learning for Reconstruction of Single Image Super Resolution[J]. Acta Optica Sinica, 2018, 38(9): 0910002.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!