激光与光电子学进展, 2021, 58 (6): 0610019, 网络出版: 2021-03-11   

基于改进残差网络的中式菜品识别模型 下载: 532次

Chinese Food Recognition Model Based on Improved Residual Network
作者单位
南京信息工程大学自动化学院, 江苏 南京 210044
摘要
针对传统神经网络无法对相似度较高的中式菜品进行有效分类的问题,提出了一种基于改进残差网络的中式菜品识别 RNA-TL (ResNet with Attention and Triplet Loss) 模型。该算法先融合多尺度特征以提取深层次图像的语义信息,然后增加一层注意力机制层,给予图像重要部分更多的关注,最后利用三元组损失(Triplet Loss, TL)计算类间相似度并将结果输入到支持向量机(Support Vector Machine, SVM)中进行分类。实验表明,相较于其他主流算法模型,RNA-TL模型在中式菜品公共数据集上以及课题组采集的数据集上的识别准确率表现出更优越的性能。
Abstract
In view of the fact that traditional neural networks cannot effectively classify Chinese food with high similarity, a Chinese food recognition model of RNA-TL (ResNet with attention and triplet loss) based on an improved residual network is proposed. The algorithm first fuses the multi-scale features to extract the semantic information of deep-level images, and then adds an attention mechanism layer to give more attention to the important parts of the images. Finally, the similarity among classes is calculated by using triplet-loss, whose result is input into support vector machine (SVM) for classification. The experimental results indicate that the proposed RNA-TL model possesses more superior performances in recognition accuracy on the public dataset of Chinese food and the dataset collected by our project team, compared with the other mainstream algorithm models.

1 引言

随着人们对物质生活要求的不断提高,饮食健康问题越来越突出。为了精准记录每餐摄入的营养信息,可记录每餐的菜品图像并进行菜品名称标注以便后续的营养成分分析,从而为健康饮食提供有效的数据支撑[1]。同时,菜品名称标注如果仅依靠人为标注,不仅成本高而且效率低下。因此,如何实现有效的中式菜品图像识别成为研究热点。

近年来,机器学习与深度学习在菜品识别上的应用越来越广泛。对于菜品图像的识别,目前已经出现了一些比较优秀的算法模型。Yang等[2]使用传统的机器学习方法,将图像的软像素级分割成八种成分类型以计算局部特征之间的成对统计量,并且将结果积累在一个多维的直方图中,最后将这个多维直方图作为一个特征向量输入到分类器中 。Zheng等[3]提出了一种基于超像素的LDC(Linear Distance Coding)底层特征的方法,通过提取基于超像素分割的判别食物信息,对最大类间方差法进行了改进,该方法在PFID食物图像数据库上表现出很好的性能并对噪声和遮挡具有良好的鲁棒性。 Mezgec等[4]提出了一种基于AlexNet的改进的NutriNet深度卷积神经架构,该方法以高像素的图像作为输入,在AlexNet的第一个卷积层之前增加了一个额外的卷积层,最终在食物识别中获取了良好的识别准确率。 Martinel等[5]在残差网络(ResNet)的基础上添加一层以捕捉菜品的垂直结构,并且优化了残差模块,然后将新的结构与残差块结合起来以生成分类的得分,相比于传统的机器学习算法,此方法表现出更好的性能,在食物数据集Food-101上达到了90.27%的准确率。 Pan等[6]提出了一种基于图像增强神经网络的食物识别方法,该方法结合了仿射变换图像增强技术和高级特征向量,利用SMO分类器进行分类,在中小规模数据集上表现出优异的性能。Ng 等[7]在现有的卷积神经网络上对不同的数据集进行了大量的对比实验,发现深层网络Xception、Nasnet-Large的识别准确率较高,同时还发现,为了得到最佳的训练效果,训练集上每个类至少包含300幅图像且不改变形状的图像增强技术更有益。

以上方法针对的都是西餐菜品,由于西餐菜品的相似度相比于中式菜品较低,因此识别起来相对简单。中式菜品比较复杂,种类繁多,高相似度给识别带来了一定的困难[8]。为了解决这一问题,本文提出了一种基于改进残差网络的卷积结构RNA-TL (ResNet with Attention and Triplet-Loss) 模型。先在ResNet的基础上,利用不同结构与大小的卷积核(RNA-A、RNA-B和RNA-C)替换尺寸为3 pixel×3 pixel的卷积核,从而提取了多尺度的深层次特征,并增加了注意力机制分支,有效特征信息的权重得到增大。然后,利用人脸识别中的三元组损失(Triplet Loss,TL)的原理[9]对损失函数进行了改进,加大或缩小了不同类或相同类之间的相似度。最后,基于得到的训练参数,利用支持向量机(Support Vector Machine, SVM)进行菜品的分类。

2 模型结构

本文提出了一种基于改进残差网络的中式菜品识别模型。该模型分为三个部分。第一部分即RNA((ResNet with Attention))模块,通过融合多尺度特征以提取深层语义。第二部分即注意力机制层。通过添加注意力机制,动态强化或弱化权重,从而获取模型所关注的重要信息。第三部分,使用优化的TL函数计算类与类之间相似度,并将训练得到的特征信息输入到SVM [10]中进行菜品识别,根据准确率确定目标的最终分类。模型结构如图1所示。

图 1. 模型结构

Fig. 1. Model structure

下载图片 查看所有图片

2.1 RNA模块

由于中式菜品的种类繁多、相似度高,而传统ResNet网络在进行菜品识别时会忽略不同尺度下的图像语义信息,且经过多层卷积操作后,语义会丢失。本文将改进后的残差网络RNA运用到中式菜品识别中,RNA模块的结构如图2所示,其中Add分支为注意力机制层, Relu为激活函数,并使用Dropout策略减少过拟合。

图 2. RNA网络结构

Fig. 2. RNA network structure

下载图片 查看所有图片

图2所示,将预处理过的菜品图像作为RNA的输入,假设输入图像X的尺寸为224 pixel×224 pixel×3 pixel,经过一个尺寸为7 pixel×7 pixel、步长(stride)为2的卷积核,并进行了尺寸为3 pixel×3 pixel、stride为2的最大池化操作。经过上述操作,原始输入就会变成尺寸为56 pixel×56 pixel×64 pixel的特征图,极大地减小了存储空间。

图2中的RNA-A、RNA-B、RNA-C三个模块的卷积结构图分别如图3、4、5所示。可以看出,除了卷积层略有不同外,其整体结构是差不多的,都是卷积层加上一层恒等映射层(Identity)。RNA-A模块中的卷积层可分为四个分支,第一个分支是由尺寸分别为1 pixel×1 pixel、3 pixel×3 pixel、3 pixel×3 pixel的三个卷积核串联组成的,这里使用两个3 pixel×3 pixel的卷积核而不使用大一点的卷积核是为了减少计算量。第二个分支是由尺寸分别为1 pixel×1 pixel、3 pixel×3 pixel的两个卷积核串联组成的,第三个分支是由一个池化层以及一个尺寸为1 pixel×1 pixel的卷积核串联组成的,第四个分支只有尺寸为1 pixel×1 pixel的卷积核。各个分支中均使用了尺寸为1 pixel×1 pixel的卷积核,其目的是减少计算参数的维度并保证输入到下一层的各分支的参数维度是一致的,以便于后续不同尺度的特征进行特征融合(Filter Concat)[11]

图 3. RNA-A的卷积结构

Fig. 3. Convolution structure of RNA-A

下载图片 查看所有图片

图 4. RNA-B的卷积结构

Fig. 4. Convolution structure of RNA-B

下载图片 查看所有图片

图 5. RNA-C的卷积结构

Fig. 5. Convolution structure of RNA-C

下载图片 查看所有图片

除了卷积层外,还有一个分支为恒等映射层,其作用是将上一层的输出直接与这一层卷积输出相加以作为这一层的输出,这样可以防止梯度消失或梯度爆炸,同时也能加快网络的收敛,具体结构如图3所示。RNA-B模块和RNA-C模块的结构相较于RNA-A模块在卷积层上有一些差别。RNA-B模块引用了深层卷积网络inception-v3中一个尺寸为1 pixel×n pixel和一个尺寸为n pixel×1 pixel的卷积核,将其串联以代替尺寸为n pixel×n pixel的卷积核,这样计算量降低为之前的1/n,且当n=7时得到的特征效果较好[12],同时也加深了网络的深度,如图4所示。RNA-C模块只是把RNA-B模块中串联的尺寸分别为1 pixel×n pixel和n pixel×1 pixel的卷积层改成了并联, 如图5所示, 这样在减少计算量的同时可获取不同尺度下的特征向量,使得高维表示更加容易处理,最后将提取到的图像特征信息传送到出输出层。输出表达式为

Ou=fn{f2f1(XW1+b1)W2+b2×Wn+bn},(1)

式中:Wi 表示第i层的权重参数矩阵,i=1,2,3,…,n,其中n为卷积层中的网络层数;bi为第i层的偏置项;fi·为第i层的激活函数;OuRNA网络的输出。

2.1 注意力机制层

图2中的Add分支是利用注意力机制层将上一层的输出分别加到RNA-A、RNA-B和RNA-C的输出里。增加Add分支可以使有用的特征得到更大的权重并弱化对结果影响比较小的特征,极大提升了神经网络处理信息的能力[13]图6所示为注意力机制模块的基本结构图。其中,xt(1≤tn) 表示原始的图像输入,是X的矩阵元;ht(1≤tn)是xt经过前面卷积层后的隐层特征;αt(1≤tn) 是各个隐层特征在新的隐层特征中的权重系数。最终通过加权求和获取新的图像区域特征表达s:

s=t=1nαtht,(2)αt=exp[vttanh(wtht+bt)]t=1n[vttanh(wtht+bt)],(3)

式中:wtt 时刻隐含层的权重系数;vt是用来衡量t时刻特征点重要度的权重;btt时刻相应的偏移量。通过(2)式,就可以实现输入的初始特征到新的注意力特征的转换。

图 6. 注意力机制模块的基本结构

Fig. 6. Basic structure of attention mechanism module

下载图片 查看所有图片

2.3 三元组损失

图7所示,三元组损失是一个三元组。首先从训练数据集中随机选取一个样本图像Anchor(记为xa),然后在Anchor所属类别中随机选取一个样本图像Positive(记为xp),并在与Anchor所属类别不同的类别中随机选取一个样本图像Negative(记为xn),这样三个样本图像(Anchor、Positive、Negative)组成的一组图像样本即成为一个三元组。

图 7. TL学习示意图

Fig. 7. Schematic of TL learning

下载图片 查看所有图片

一个三元组经过RNA-TL模型的一系列特征提取及空间映射后,这个三元组中三个样本的特征表达分别记为fxat,fxpt,fxnt。TL原理就是通过不断的训练学习,使xaxp之间的欧氏距离尽可能小且xaxn之间的欧氏距离尽可能大,同时xaxp之间的欧氏距离比xaxn之间的欧氏距离小一个阈值α(常量)。转化公式[9]

fxat-fxpt22+α<fxat-fxnt22,(4)

式中:∀( xat, xpt, xnt)∈Τ ,Τ表示整个数据集。

由此可得损失函数为

L=tN[fxat-fxpt22-fxat-fxnt22+α]+,(5)

式中:N为样本的总个数; ·+表示当括号内的值小于0时损失取为0,大于0时取该值为损失值。

由(5)式可以看出,最小化损失L=dap-dan +α,其中dap为类内距离,dan为类间距离。

在实际情况中,当数据量很大时,我们很难穷举所有数据。因此,在每次训练过程中,随机选取A个训练数据类别数并在每个类别中随机选取B个样本图像进行训练。(4)式只比较了xaxp之间的欧氏距离及xaxn之间的欧氏距离,为了加大类内距离与类间距离的差距以明显提升分类效果,对xnxp之间的欧氏距离进行比较。针对(5)式进行如下优化:

L'=tN{fxat-fxpt22-min[fxat-fxnt22,fxpt-fxnt22]+α}+(6)

经过大量实验,发现将损失函数中的欧式距离的平方去掉,得到的分类效果更好,查阅资料,在相关文献中也有类似结论[14]。所以最终的损失函数可以优化为

L=tN{fxat-fxpt2-min[fxat-fxnt2,fxpt-fxnt2]+α}+(7)

最终利用SVM进行分类。对于包含k个类别的分类问题,训练出 kk-12个分类器,即每两个类别训练出一个分类器,并依据 kk-12个分类器的结果,通过“投票”方式预测结果。

3 模型描述

本文提出的模型描述如下。

输入:中式菜品数据集(Food208、Food292)。

输出:训练后的菜品分类模型。

Step 1:对准备好的数据集进行图片预处理,包括对图像进行线性变换增强,将图像的亮区域变暗,暗区域变亮;对图像的像素尺寸进行统一裁剪。

Step 2:从处理好的数据集中随机抽取A个类别并从对应的每个类别中随机抽取B个样本,这些样本组合成一个批次(Batch)。然后在抽取的样本中进行三元组的组合,并将所有的三元组输入到RNA网络中以进行特征提取。

Step 3:基于提取的特征计算TL损失函数,进行同类别以及类别间的相似度计算比较,根据结果不断迭代更新权重系数。

Step 4:将上述训练好的参数模型输入到SVM中以进行菜品的分类。

4 实验结果与分析

4.1 实验数据准备与处理

为了验证RNA-TL模型的有效性,实验选用了一个公开的中国菜品数据集[15]和课题组采集的中式快餐菜品数据集。公开的中国菜品数据集一共有208个类,平均每个类有800张左右的图片,一共有16万张,这里简称Food208,对应的样例示图如图8所示。从比较流行的中式快餐餐厅中收集了292类菜品图像,每个类约有300张图片,一共87603张,简称Food292,其对应的样图示例如图9所示。

图 8. Food208数据集样图示例

Fig. 8. Samples in Food208 dataset

下载图片 查看所有图片

图 9. Food292数据集样图示例

Fig. 9. Samples in Food292 dataset

下载图片 查看所有图片

对图片进行预处理。先对图像进行线性变换增强,适当调亮图像中比较暗的区域并适当调暗图像中比较亮的区域。然后将所有的图像尺寸统一裁剪成224 pixel×224 pixel。最后将处理过的数据划分为训练集和测试集,按照8∶2的图片张数比例随机分配,具体分配数量如表1所示。

表 1. 不同数据集中训练集与测试集的图片数量

Table 1. Image numbers of training dataset and test dataset for different datasets

DatasetTrainingTest
Food20812801620214
Food2927008217521

查看所有表

4.2 实验环境与参数设置

本实验采用Tensorflow深度学习框架,用python3.6进行编程,在Win10系统上进行实验,硬件方面选用了CPU 9700K,显卡为GTX 1080 8G。

本次实验使用三元组的方法,因此每次输入必须是3的倍数,这里将批大小设置成90。每次训练随机选取40个类别,每个类别随机抽取150个样本,因此一个epoch需要迭代6000次。实验中使用Adam优化器对学习率进行优化,为了防止过拟合,增加了Dropout层,并将其参数设置为0.4。模型的具体参数如表2所示。

表 2. 模型参数设置

Table 2. Model parameter setting

ParameterContent
Input size224 pixel×224 pixel
Epoch200
Batch size90
OptimizerAdam
Dropout parameter0.4

查看所有表

4.3 实验评价指标

本实验采用宏平均查准率(Macro average precision,P)作为实验评价指标,其指标表达式为

P=1mk=1mPk,(8)

式中:Pk为第k个类别的查准率;m为总类别数。

4.4 实验结果对比与分析

4.4.1模型对比

为了比较改进卷积神经网络RNA的性能优劣,将卷积神经网络更换为当今比较成熟的几种卷积神经网络(inception-v3、inception-v4、resnet-18、inception-resnet-v1和inception-resnet-v2)进行实验。其中除epoch以外,其他训练参数不变,最后得到的最佳准确率如表3所示。

表 3. 不同卷积神经网络在Food208、Food292数据集上的识别准确率

Table 3. Recognition accuracies of different CNNs on Food208 and Food292 datasets

Convolutional neural networkFood208Food292
Inception-v3[16]70.52%80.65%
ResNet-18[17]74.64%82.41%
Inception-v4[18]79.51%83.16%
Inception-ResNet-v1[18]79.93%85.53%
Inception-ResNet-v2[18]80.36%86.10%
RNA83.66%90.31%

查看所有表

表3可知,相比于其他网络,RNA在Food208、Food292数据集上的表现更好,RNA在Food208上的准确率比Inception-ResNet-v2高出了3.3个百分点,在Food292上的准确率比Inception-ResNet-v2高出了4.21个百分点。Inception-ResNet-v1以及Inception-ResNet-v2也采用了ResNet中的恒等映射方法,并且增加了网络深度以及卷积核大小,相比Inception-v3,这两个网络在Food208、Food292数据集上的表现都有很大提升。RNA在改进的残差网络卷积层中加入了注意力机制层,使得有用的特征获得更大的权重,而对结果影响比较小的特征被弱化,从而在两个数据集上的表现更加良好。

其中,RNA在数据集Food292上的表现更好,准确率可以达到90.31%,相比于其在Food208上的准确率,高出了6.65个百分点。比较两个数据集可以发现,Food208数据集中带有很多无用背景信息,而Food292数据集中的菜品是盛装在形状类似的餐盘中,除去菜品部分,背景信息的干扰不大。由此可得,RNA更适合应用在场景变化不大的中式菜品识别中,比如大部分的中式餐厅以及中式食堂中。

对于表3中的6种卷积神经网络,将TL函数改为(2)式,进行了对比实验,其结果如表4所示。

表 4. 当损失函数为(2)式时不同卷积神经网络的准确率

Table 4. Accuracies of different CNNs when loss function is formula (2)

Convolutional neural networkFood208Food292
Inception-v369.52%79.53%
ResNet-1873.15%81.12%
Inception-v478.30%81.91%
Inception-ResNet-v178.21%84.46%
Inception-ResNet-v278.95%84.95%
RNA82.50%89.10%

查看所有表

表3表4进行对比发现,损失函数经过优化后,5个卷积神经网络在数据集Food208以及Food292上的识别准确率都有所提升,RNA在Food208、Food292上的准确率分别提高了1.16个百分点和1.21个百分点。由此可以推断,优化过的TL函数在一定程度上提高了模型准确率。

4.4.2 参数对比

基于RNA-TL模型,利用上述参数设置,将epoch分别设置为50,100,150,200和250,在Food208和Food292数据集上进行实验,得到的结果如表5所示。

表 5. 不同epoch下RNA-TL得到的准确率

Table 5. Accuracies obtained by RNA-TL under different epochs

EpochFood208Food292
5078.95%85.63%
10080.22%87.02%
15082.13%89.23%
20083.60%90.31%
25083.62%90.32%

查看所有表

表5可知,在数据集Food208和Food292上,当epoch大小为200时,得到的准确率趋于稳定。由此可得,在使用RNA-TL训练时,epoch设置为200比较合适。

4.4.3 训练时间对比

图10列出了不同卷积神经网络在数据集Food208和Food292上得到最佳识别准确率时所需要的时间。可以看出,RNA在保证取得比较好的识别准确率的同时,所用时间也相对较短。

图 10. 不同卷积神经网络在数据集Food208和Food292上训练时所需的时间

Fig. 10. Time required for training different CNNs on Food208 and Food292 datasets

下载图片 查看所有图片

5 结论

针对中式菜品识别,提出了一种基于残差网络的改进RNA-TL菜品识别模型。利用残差网络的恒等映射方法,并在残差网络中融合多个不同大小的卷积核,从而提取了多尺度特征向量。通过添加一层注意力机制层,有效特征信息的权重得到增大。为了防止特征信息的丢失,将Add分支分别与RNA-A、RNA-B、RNA-C的输出进行拼接。接着基于所提取的特征信息,利用改进的TL函数比较类间的相似度,并不断迭代更新权重参数。最终将训练得到的特征输入到SVM中进行菜品识别分类。相比于现有的卷积神经网络,RNA-TL在数据集Food208以及Food292上表现出更加优异的性能。

中式菜品的种类繁多,且受材料以及制作菜品人员水平的影响,训练的数据集样本比较单一,所提算法是否能适应多样化的数据集还有待验证。通过结合先进的目标检测算法,所提算法能更好地应用于实际生活中。

参考文献

[1] MezgecS, Seljak BK. Using deep learning for food and beverage image recognition[C] // 2019 IEEE International Conference on Big Data (Big Data), December 9-12, 2019 ,Los Angeles, CA, USA. New York: IEEE, 2019: 19393612.

[2] YangS, ChenM, PomerleauD, et al. Food recognition using statistics of pairwise local features[C] // 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 13-18,2010,San Francisco, CA, USA. New York: IEEE, 2010: 11500651.

[3] Zheng J N, Wang J, Ji X Y. Food image recognition via superpixel based low-level and mid-level distance coding for smart home applications[J]. Sustainability, 2017, 9(5): 1-17.

[4] Mezgec S, Koroušić Seljak B. NutriNet: a deep learning food and drink image recognition system for dietary assessment[J]. Nutrients, 2017, 9(7): E657.

[5] MartinelN, Foresti GL, MicheloniC. Wide-slice residual networks for food recognition[C] // 2018 IEEE Winter Conference on Applications of Computer Vision, March 12-15, 2018, Lake Tahoe, NV, USA. New York: IEEE, 2018: 17751381.

[6] Pan L L, Qin J H, Chen H, et al. Image augmentation-based food recognition with convolutional neural networks[J]. Computers, Materials & Continua, 2019, 59(1): 297-313.

[7] Ng YS, Xue WQ, WangW, et al.Convolutional neural networks for food image recognition: an experimental study[C] // Proceedings of the 5th International Workshop on Multimedia Assisted Dietary Management, October 15-21, 2019, Nice, France. New York: ACM Press, 2019: 33- 41.

[8] 段雪梅, 朱明, 鲍天龙. 双线性模型在中国菜分类中的应用[J]. 小型微型计算机系统, 2019, 40(5): 1050-1053.

    Duan X M, Zhu M, Bao T L. Application of bilinear model in Chinese image classification[J]. Journal of Chinese Computer Systems, 2019, 40(5): 1050-1053.

[9] SchroffF, KalenichenkoD, PhilbinJ. FaceNet: a unified embedding for face recognition and clustering[C] // 2015 IEEE Conference on Computer Vision and Pattern Recognition, June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 15524223.

[10] Rozi M F, Mukhlash I. Soetrisno, et al. Opinion mining on book review using CNN-L2-SVM algorithm[J]. Journal of Physics: Conference Series, 2018, 974: 012004.

[11] 吴琼, 李锵, 关欣. 基于多尺度残差式卷积神经网络与双向简单循环单元的光学乐谱识别方法[J]. 激光与光电子学进展, 2020, 57(8): 081006.

    Wu Q, Li Q, Guan X. Optical music recognition method combining multi-scale residual convolutional neural network and bi-directional simple recurrent units[J]. Laser & Optoelectronics Progress, 2020, 57(8): 081006.

[12] Wang C, Chen D L, Hao L, et al. Pulmonary image classification based on inception-v3 transfer learning model[J]. IEEE Access, 2019, 7: 146533-146541.

[13] 褚晶辉, 汤文豪, 张姗, 等. 一种基于注意力模型的面部表情识别算法[J]. 激光与光电子学进展, 2020, 57(12): 121015.

    Chu J H, Tang W H, Zhang S, et al. An attention model-based facial expression recognition algorithm[J]. Laser & Optoelectronics Progress, 2020, 57(12): 121015.

[14] HermansA, BeyerL, Leibe B. In defense of the triplet loss for person re-identification[EB/OL]. ( 2017-11-21)[2020-06-15]. https:∥arxiv.org/abs/1703. 07737.

[15] ChenX, ZhuY, ZhouH, et al. ( 2017-10-15)[2020-06-15]. https:∥arxiv.org/abs/1705. 02743.

[16] SzegedyC, VanhouckeV, IoffeS, et al. ( 2015-12-11)[2020-06-15]. https:∥arxiv.org/abs/1512. 00567.

[17] HeK, ZhangX, RenS, et al. Deep residual learning for image recognition[C] // 2016 IEEE Conference on Computer Vision and Pattern Recognition, June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 16541111.

[18] SzegedyC, IoffeS, VanhouckeV, et al., inception-ResNet and the impact of residual connections on learning[EB/OL]. ( 2016-08-23)[2020-06-15]. https:∥arxiv.org/abs/1602. 07261.

邓志良, 李磊. 基于改进残差网络的中式菜品识别模型[J]. 激光与光电子学进展, 2021, 58(6): 0610019. Deng Zhiliang, Li Lei. Chinese Food Recognition Model Based on Improved Residual Network[J]. Laser & Optoelectronics Progress, 2021, 58(6): 0610019.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!