中国激光, 2019, 46 (2): 0210001, 网络出版: 2019-05-09   

基于多层深度特征融合的极化合成孔径雷达图像语义分割 下载: 1135次

Semantic Segmentation of Polarimetric Synthetic Aperture Radar Images Based on Multi-Layer Deep Feature Fusion
作者单位
空军工程大学信息与导航学院, 陕西 西安 710077
摘要
针对传统特征表征能力较弱的问题,提出了一种基于多层深度特征融合的极化合成孔径雷达图像语义分割方法;利用经过预训练的VGG-Net-16模型提取表征能力更强的多层图像特征,再将各层深度特征分别用于训练对应的条件随机场模型,最后将多个条件随机场模型的输出结果进行融合,实现了最终的图像语义分割。结果表明:与基于传统经典特征的方法相比,所提方法取得了最高的总体分类精度,说明所提方法采用的融合特征具有比传统特征更强的表征能力。
Abstract

Aiming at the problem that the traditional feature representation ability is weak, we propose a polarization synthetic aperture radar image semantic segmentation method based on the multi-layer deep feature fusion. The pre-trained VGG-Net-16 model is used to extract multi-layer image features with strong representation ability, and then deep features of each layer are used to train the corresponding conditional random field model. The output results of multiple conditional random field models are finally merged to realize the final semantic segmentation of the images. The results show that compared with the methods based on classical features, the proposed method achieves the highest overall accuracy, indicating that the fusion features used by the proposed method have stronger representation ability than traditional features.

1 引言

极化合成孔径雷达(PolSAR)图像语义分割的目的在于描述PolSAR图像不同区域的语义信息,由于PolSAR图像中语义类别具有分布复杂和多样可变等特点,因此有效实现PolSAR图像语义分割已成为极具挑战性的课题[1]

传统的PolSAR图像语义分割方法主要由两部分组成:特征提取和分类器设计。传统方法通常基于PolSAR图像的散射特性来提取特征[2-3],然后将提取到的特征输入到合适的分类器中。这些方法提取的特征一般是针对具体问题进行设计的手工特征,对先验知识的依赖程度较高。

目前,深度学习技术已取得了巨大进展,尤其是一些处理图像分类的方法,如卷积神经网络(CNN)等。AlexNet[4]、VGG-Net[5]和ResNet[6]等具有高性能的CNN模型将多维图像数据直接作为输入,有效避免了传统方法繁琐的特征提取过程,被广泛应用于图像处理和计算机视觉领域。近年来,很多研究者开始将CNN用于PolSAR图像语义分割,得到了较好的性能[7-8],但与基于传统人工特征的方法相比,这些方法中的CNN模型通常有很多参数,导致训练时间远超传统方法的训练时间。因此,在兼顾效率的前提下,提高传统PolSAR图像语义分割方法的分割精度显得尤为重要。

为了提高传统PolSAR图像语义分割方法的精度,本文在“特征提取+分类器设计”这一研究思路的基础上,提出了一种基于多层深度特征融合的PolSAR图像语义分割方法。首先采用经过预训练的VGG-Net-16模型提取图像不同层次的特征,避免了训练时间过长的问题,然后利用不同层次的深度特征分别训练差异性的条件随机场(CRF)模型,最后根据融合规则将不同层次深度特征对应的输出结果进行融合,得到最终的语义分割结果。

2 相关理论

2.1 分层深度特征

VGG-Net-16模型是一种用于实现图像分类任务的CNN模型[5],其中的“16”为该模型需要学习参数的层数。VGG-Net-16模型主要由5个卷积层(Conv1~Conv13共13层)和3个全连接层组成。从Conv1到Conv5,每组卷积层分别包含2、2、3、3、3层卷积,每个卷积层都使用尺寸为3×3的卷积核。在ImageNet数据集上训练后,VGG-Net-16模型中每个卷积层都可以作为一个特征提取器,提取目标不同卷积层的特征表达。

2.2 CRF模型

CRF模型是Lafferty等[9]提出的一种概率图模型,可以表示为无向图模型G={V,E},其中V为图中节点的集合,E为节点间无向边的集合。

假设图像观测向量为x,类别标签为y,标记场的后验概率P(y|x)[10]

P(y|x,θ)=1Z(x,θ)cCψc(yc|x,θ),(1)

式中:θ为模型参数;Z(x,θ)= yP(y|x,θ)为配分函数;yc为势团C对应的标签;ψc为定义在势团C上的势函数。

当只考虑单位置和双位置势函数时,(1)式可进一步改写为

P(y|x,θ)=1Z(x,θ)expiKψi(xi,y,θA)+iKjNiψij(yi,yj,x,θI),(2)

式中:K为所有节点的集合;Ni为节点i的邻域;ψiψij分别为CRF模型的单位置势函数和双位置势函数;模型参数θ={θA,θI},其中θAθI分别为单位置势函数和双位置势函数的权重向量;xi为节点i处的特征向量。

3 基于多层深度特征融合的PolSAR图像语义分割方法

针对传统图像语义分割方法受限于人工特征表征能力较弱的问题,本课题组提出了一种基于多层深度特征融合的PolSAR图像语义分割方法,采用VGG-Net-16模型提取图像不同层级的深度特征,针对不同的特征分别训练对应的CRF模型,然后融合多个CRF模型的结果作为最终的输出。

3.1 PolSAR图像预处理

对于PolSAR数据,每个像素点用T矩阵的9维向量表示为

V=(T11,T22,T33,realT12,imagT12,real(T13),imag(T13),real(T23),imag(T23)),(3)

式中:Tmn为对应位置的协方差矩阵元素,其中m,n=1,2,3;real(·)和imag(·)分别为求实部和求虚部操作。为了避免相干斑噪声的影响,实验数据经过Lee滤波处理[11]。本研究将在普通光学图像上预训练的VGG-Net-16模型作为特征提取器,其要求的输入为3个通道的归一化图像。因此,对滤波后的PolSAR图像采用文献[ 4]中的方法实现归一化,然后进行主成分分析(PCA)变换[12]实现数据降维,将前3个主成分作为输入图像进行特征提取。

3.2 多层深度特征的提取

本研究为图像的每个像素点选择以其为中心且尺寸为W×H×3的邻域图像块参与训练,其中WH分别为图像块的宽度和高度,3为通道数。VGG-Net-16模型要求输入尺寸为224 pixel×224 pixel×3 pixel的图像,因此对所有图像块采用双线性插值上采样到224 pixel×224 pixel×3 pixel。对于无法提取完整图像块的图像边缘像素,采用零填充策略进行补充[7]。将所有插值后的图像块输入到VGG-Net-16模型中,得到图像块不同层级的特征表达,选择Conv3-3、Conv4-3和Conv5-3层的特征图,对各层特征图分别求均值,并将均值作为图像块中心像素点的特征。VGG-Net-16模型提取的Conv3-3、Conv -3和Conv5-3层特征分别被用来训练对应的CRF模型,得到对应的分类结果。

3.3 CRF模型的建立

CRF模型针对不同应用场景的需要定义不同的势函数。目前较为常见的势函数有多项式势函数、支持向量机(SVM)和多元对数回归(MLR)[13]等。MLR不要求观测图像满足正态分布,因此选择MLR作为单位置势函数,即

ψiyi,x,θA=l=1Lδyi=llgPyi=lx,θA,4

P(yi=l|x,θA)=exp[(θA)Tlxi]1+k=1L-1exp[(θA)Tkxi],ifl<L11+k=1L-1exp[(θA)Tkxi],ifl=L,(5)

式中:δ为Kronecker函数;L为图像包含的类别数量;l∈{1,2,…,L};(θA)k为第k类参数,所有(θA)k首尾连接得到的参数θA在参数估计中确定。

双位置势函数ψij不仅应考虑邻域中相邻位置ij的特征对这两个点的语义标签yiyj的作用,还应考虑对应语义标签之间的相互关系。本研究中的双位置势函数选择广义Ising/Potts模型[14],即

ψij(yi,yj,x,θI)=k,l{1,2,,L}(θI)Tkluij(x)δ(yi=k)δ(yj=l),(6)

式中:uij(x)为联合特征向量,体现特征向量间的差异对标号的影响,向量uij(x)的权重θI在参数估计中确定;θI为所有(θI)kl(k,l=1,2,…,L)首尾连接得到的权重向量。

确定CRF模型后,需要在训练阶段估计模型参数θ。CRF模型参数的估计方法有很多,如梯度上升和树重置信传播算法(TRW)等[15-16],本研究采用限制优化方法来估计模型参数[17]。参数确定后,可以得到每个像素点属于某个语义类别的概率,搜索使(2)式中的后验概率最大的最优解y*,即y*=arg maxylgP(y|x,θ),从而确定每个像素的类别标签,得到VGG-Net-16模型的不同层特征对应的语义分割精度。

3.4 融合规则

VGG-Net-16模型提取的Conv3-3、Conv4-3和Conv5-3层特征分别用来训练同一个CRF模型,得到3个有差异的CRF子模型,利用(7)式对子分类器的结果进行融合:

P(y|x)=λ1P1+λ2P2+λ3P3,(7)

式中:P1P2P3分别为根据Conv3-3、Conv4-3和Conv5-3层特征得到的CRF模型后验概率;λ1λ2λ3分别为对应的自适应权值系数。根据得到的3个子CRF模型的总体分类精度(OA)[7],归一化得到对应的自适应权值系数。在得到融合后的后验概率P(y|x)后,搜索其最大概率对应的语义类别,即为最终的语义分割结果。

4 实验设计与结果分析

为了验证本课题组所提方法的有效性和可靠性,选取2组实验数据集进行实验,原始数据采用如图1所示的由星载合成孔径雷达(ESAR)系统拍摄的德国Oberpfaffenhofen地区的L波段数据,以及由美国喷气推进实验室(JPL)机载合成孔径雷达(AIRSAR)系统获取的荷兰Flevoland地区L波段数据。这2组实验数据被广泛用于评估PolSAR图像语义分割算法的性能,其中Oberpfaffenhofen数据的图像大小为1300 pixel×1200 pixel,Flevoland数据的图像大小为750 pixel×1024 pixel。

图 1. 原始数据。(a) Oberpfaffenhofen数据;(b) Flevoland数据

Fig. 1. Original data. (a) Oberpfaffenhofen data; (b) Flevoland data

下载图片 查看所有图片

在实验中选择以下方法与所提方法进行对比:基于Cloude分解和Freeman分解所得特征的CRF分类方法(方法1);基于Freeman分解和协方差矩阵对角线元素所得特征的CRF分类方法(方法2);将上述2种方法中的特征串联融合所得特征的CRF分类方法(方法3);基于CNN的方法[7](方法4)。

表1所示为实验中经典方法所用到的特征。所提方法的深度特征提取在深度学习平台MatConvNet[18]上完成。3种经典方法与所提方法都采用同样的CRF模型,参数估计过程中的最大迭代次数设置为1100。文献[ 7]中的迭代次数设置为1100。4组实验选取相同的训练样本和测试样本进行对比。分类性能综合评估指标为OA、训练时间与测试时间。所有实验均在配置为Intel Core i7 2.80 GHz的处理器和内存为8 GB的计算机上完成。

表 1. 对比方法中用到的特征

Table 1. Features used in comparison methods

Cloude decompositionFreeman decompositionCovariance matrix diagonal element
H,α,A,λ1,λ2,λ3Ps,Pd,PvC11,C22,C33

查看所有表

4.1 基于Flevoland数据的实验结果

第1组实验数据为Flevoland数据。图2(a)所示为Flevoland数据对应的地物分布参考图[19],包括11类地物,分别为豆类、森林、油菜籽、裸土、马铃薯、甜菜、小麦、豌豆、苜蓿、草地和水域,空白区域为未标记类别。

为了便于比较,文中涉及的实验都选择带有标记数据所占比例为10%的数据作为训练数据,所有带有标记的数据作为测试数据。基于大量的对比实验,将所提方法中图像块的宽度和高度设置为W=H=12,通过使用VGG-Net-16模型提取的3层特征训练得到的各子分类器得到3个OA,分别为80.88%、85.47%和87.02%;然后对其进行归一化处理,得到自适应权值系数的取值分别为λ1=0.319,λ2=0.337和λ3=0.344。实验结果如图2所示。

图 2. Flevoland数据分类结果对比。(a)地物分布参考图[19];(b)方法1;(c)方法2;(d)方法3;(e)方法4;(f)所提方法

Fig. 2. Comparison of Flevoland data classification results. (a) Ground truth[19]; (b) method 1; (c) method 2; (d) method 3; (e) method 4; (f) proposed method in this paper

下载图片 查看所有图片

表2所示为定量评价结果。结合图2表2可以看出:所提方法的整体效果优于3种经典方法,OA达到了92.22%;所提方法所有类别的分类精度都大于80%(大部分大于90%),并且苜蓿、小麦和油菜籽等的分类精度均比3种经典方法的更高,这说明所提方法采用的多层深度融合特征具有比传统特征更强的表征能力。方法4是目前性能较好的一种基于CNN的PolSAR图像语义分割方法。与方法4相比,所提方法的OA稍低,原因可能是所提方法使用的特征提取模型是预训练模型,对OA存在一定程度的影响,但所提方法需要训练的参数少于方法4的训练参数,训练时间和测试时间都远比方法4的训练时间和测试时间短,说明所提方法具有更高的实时性。此外,所提方法的特征维度较高,因此训练时间和测试时间比3种经典方法的训练时间和测试时间更长。

表 2. Flevoland数据下不同方法的性能对比

Table 2. Performance comparison of different methods under Flevoland data

ClassClassificationaccuracy formethod 1 /%Classificationaccuracy formethod 2 /%Classificationaccuracy formethod 3 /%Classificationaccuracy formethod 4 /%Classificationaccuracy for theproposed methodin this paper /%
Beans97.1283.3396.7089.8487.84
Forest75.9194.0273.3392.2289.22
Potato68.7784.0882.1495.5587.13
Alfalfa60.9989.2271.9295.1596.51
Wheat93.4088.150.86492.9598.94
Bare land51.4287.1390.3899.8991.26
Beet91.3490.3489.5590.5684.84
Rapeseed57.2378.2962.7093.2991.40
Pea58.9182.1482.0098.7995.59
Grass96.2877.4383.8983.2094.26
Water72.1497.0452.6394.9099.41
OA /%75.1587.0477.8793.3892.22
Training time /s57956563228511266
Test time /s3.203.003.4013.208.50

查看所有表

4.2 基于Oberpfaffenhofen数据的实验结果

第2组实验数据为德国Oberpfaffenhofen地区的ESAR图像,图3(a)所示为对应的地物分布参考图[20]。Oberpfaffenhofen图像包含3类语义类别,分别为建筑区域、林地和开放区域,空白区域为未标记类别。为了便于比较,文中涉及的实验都选择带有标记数据所占比例为10%的数据作为训练数据,所有带有标记的数据作为测试数据。在提出的方法中,将图像块的宽度和高度设置为W=H=12。通过使用VGG-Net-16模型提取的3层特征训练得到的各子分类器得到3个OA,分别为60.85%、69.69%和85.23%,归一化后得到自适应权值系数的取值分别为λ1=0.282,λ2=0.323和λ3=0.395。基于Oberpfaffenhofen数据的实验结果如图3所示。由图3可知,所提方法对Oberpfaffenhofen数据的所有语义类别都实现了较好的分割结果,比方法1、方法2、方法3的结果更接近于地物分布参考图,但稍差于方法4的分割结果。此外,还计算了各方法中每类语义类别的分类精度,并用OA、训练时间和测试时间进行综合性能评估,结果如表3所示。通过对比图3表3可以发现,所提方法的分类精度为89.10%,远高于3种经典方法的分类精度,这进一步表明融合的深度特征相较于传统特征具有更强的表征能力。此外,虽然所提方法的OA低于方法4的OA,但其训练时间和测试时间相对更短。

图 3. Oberpfaffenhofen数据分类结果对比。(a)地物分布参考图[20];(b)方法1;(c)方法2;(d)方法3;(e)方法4;(f)所提方法

Fig. 3. Comparison of Oberpfaffenhofen data classification results. (a) Ground truth[20]; (b) method 1; (c) method 2; (d) method 3; (e) method 4; (f) proposed method in this paper

下载图片 查看所有图片

表 3. Oberpfaffenhofen数据下不同方法的性能对比

Table 3. Performance comparison of different methods under Oberpfaffenhofen data

ClassClassificationaccuracy formethod 1 /%Classificationaccuracy formethod 2 /%Classificationaccuracy formethod 3 /%Classificationaccuracy formethod 4 /%Classificationaccuracy for theproposed methodin this paper /%
Building area69.6564.5271.2585.6092.22
Woodland89.5489.6070.0093.1383.94
Open area62.2384.3287.4195.4294.86
OA /%69.1580.4180.0092.6189.10
Training time /s68465977933981476
Test time /s3.403.303.8016.909.70

查看所有表

4.3 VGG-Net-16模型不同特征组合对语义分割精度的影响

为了进一步分析VGG-Net-16模型中不同卷积层的深度特征对所提方法的影响,在Flevoland实验数据下,通过组合不同卷积层的特征进行实验,得到不同卷积层特征组合所对应的语义分割结果。在实验中,采用与第3节中相同的方式,以实验图像的像素点为中心的图像块代表该像素点,经插值后输入到VGG-Net-16模型中,提取深度特征,然后将取均值后的深度特征输入到CRF中,得到对应特征层的结果,根据(7)式对不同卷积层特征组合中包含的特征层对应的结果进行融合,得到不同卷积层特征组合的结果。实验中,图像块宽度和高度均设置为W=H=12。表4所示为利用VGG-Net-16模型的Conv3-3、Conv4-3和Conv5-3层特征在不同组合情况下得到的语义分割结果。由表4可知,在Flevoland数据集下,随着特征层数增加,单层深度特征对应的精度不断提高,原因是深的卷积层可以提取图像更加抽象的特征信息。此外,在两组深度特征进行组合的情况下,组合中包含的特征层数越多,相应的分割精度越高,任意两组特征进行组合得到的分割精度都比组合内单层特征得到的分割精度高,说明将不同的特征进行融合可以有效地提高分割精度。本研究提出的方法将Conv3-3、Conv4-3和Conv5-3层特征进行融合,取得了比任意单层特征或两两组合特征更高的分割精度,这说明所提方法将不同的特征组合后可以有效地融合不同层特征包含的从具体到抽象的细节信息。

表 4. 不同特征组合时的分类精度

Table 4. Classification with different combination of features%

Conv3-3Conv4-3Conv5-3Conv3-3+ Conv4-3Conv3-3+ Conv5-3Conv4-3+ Conv5-3Proposed methodin this paper
80.8885.4787.0287.6689.9790.1192.22

查看所有表

5 结论

结合PolSAR的实际应用需求,本课题组提出了一种基于多层深度特征融合的PolSAR图像语义分割方法,该方法利用VGG-Net-16模型提取图像不同层次的深度特征,然后采用CRF模型对不同层特征进行分类,最后将不同层特征对应的结果进行融合,实现了最终的语义分割。实验结果表明,在利用VGG-Net-16模型提取特征进行图像语义分割时,将不同层深度特征进行融合,得到了比单层深度特征和传统特征更好的性能,说明所提方法可以有效融合多层深度特征不同层级的信息,比传统方法特征具有更强的特征表征能力。此外,与基于CNN方法的结果进行对比后发现,所提方法具有更高的效率,进一步验证了所提方法的有效性。

参考文献

[1] YangW, ZhangX, Chen LJ, et al. Semantic segmentation of polarimetric SAR imagery using conditional random fields[C]∥IEEE International Geoscience and Remote Sensing Symposium, July 25-30, 2010, Honolulu, Hawaii, USA. New Jersey: IEEE, 2010: 1593- 1596.

[2] Chen S W, Tao C S. PolSAR image classification using polarimetric-feature-driven deep convolutional neural network[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 627-631.

[3] 万剑华, 臧金霞, 刘善伟. 顾及极化特征的SAR与光学影像融合与分类[J]. 光学学报, 2017, 37(6): 0628001.

    Wan J H, Zang J X, Liu S W. Fusion and classification of SAR and optical image with consideration of polarization characteristics[J]. Acta Optica Sinica, 2017, 37(6): 0628001.

[4] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

[5] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014, 32(74): 2965-2971.

[6] He K M, Zhang X Y, Ren S Q, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[J]. Proceedings of the IEEE, 2015, 28: 1026-1034.

[7] Zhou Y, Wang H P, Xu F, et al. Polarimetric SAR image classification using deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1935-1939.

[8] Hou B, Kou H D, Jiao L C. Classification of polarimetric SAR images using multilayer autoencoders and superpixels[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(7): 3072-3081.

[9] LaffertyJ, McCallum A, Pereira F. Conditional random fields: probabilistic models for segmenting and labeling sequence data[C]∥Proceedings of the 18th International Conference on Machine Learning, Morgan Kaufmann, San Francisco, CA. San Francisco: Morgan Kaufmann, 2001: 282- 289.

[10] LI S Z. Markov random field modeling in computer vision[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995, 17(10): 939-954.

[11] 韩萍, 韩宾宾. 基于典型散射差异指数的PolSAR图像Lee滤波[J]. 系统工程与电子技术, 2018, 40(2): 287-294.

    Han P, Han B B. Lee filter of PolSAR image based on typical scattering difference index[J]. Systems Engineering and Electronics, 2018, 40(2): 287-294.

[12] MikaS, SchölkopfB, SmolaA, et al.Kernel PCA and de-noising in feature spaces[C]∥Proceedings of Conference on Advances in Neural Information Processing Systems.Cambridge: The MIT Press, 1999: 536- 542.

[13] Lee CH, SchmidtM, MurthaA, et al. Segmenting brain tumors with conditional random fields and support vector machines[C]∥Proceedings of the 1st Internatinoal Conference on Computer Vision for Biomedical Image Applications. Heidelberg: Springer, 2005: 469- 478.

[14] KumarS, HebertM. Discriminative fields for modeling spatial dependencies in natural images[C]∥Proceedings of Conference on Advances in Neural Information Processing Systems.Cambridge: The MIT Press, 2004: 1531- 1538.

[15] Domke J. Learning graphical model parameters with approximate marginal inference[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(10): 2454-2467.

[16] Parikh D, Batra D. CRFs for image classification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(5): 460-472.

[17] Krishnapuram B, Carin L, Figueiredo M, et al. Sparse multinomial logistic regression: fast algorithms and generalization bounds[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(6): 957-968.

[18] VedaldiA, LencK. MatConvNet: convolutional neural networks for MATLAB[C]∥Proceedings of the 23rd ACM International Conference on Multimedia, October 26-30, 2015, Brisbane, Australia. New York: ACM, 2015: 689- 692.

[19] Yu P, Qin A K, Clausi D A. Unsupervised polarimetric SAR image segmentation and classification using region growing with edge penalty[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 50(4): 1302-1317.

[20] Liu B, Hu H, Wang H Y, et al. Superpixel-based classification with an adaptive number of classes for polarimetric SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(2): 907-924.

胡涛, 李卫华, 秦先祥. 基于多层深度特征融合的极化合成孔径雷达图像语义分割[J]. 中国激光, 2019, 46(2): 0210001. Tao Hu, Weihua Li, Xianxiang Qin. Semantic Segmentation of Polarimetric Synthetic Aperture Radar Images Based on Multi-Layer Deep Feature Fusion[J]. Chinese Journal of Lasers, 2019, 46(2): 0210001.

本文已被 8 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!