激光与光电子学进展, 2020, 57 (10): 101014, 网络出版: 2020-05-08  

基于改进深度神经网络的纱管分类 下载: 822次

Classification of Bobbins Based on Improved Deep Neural Network
作者单位
西安工程大学电子信息学院, 陕西 西安 710048
摘要
针对纺织厂实际生产中采用人工分类纱管费时费力不够智能化等问题,提出了基于改进深度卷积神经网络的分类方法。先基于AlexNet模型框架对原有网络结构进行改进,卷积层全部使用3×3大小卷积核,且多个卷积核串联使用,提取物体更抽象高级特征。再融合滑动平均、L2正则化等方法提升泛化能力,采用L_ReLU激活函数避免部分神经元出现“死亡”现象。最后将检测样本输入训练好的神经网络,实现纱管分类。实验结果表明:该方法的识别率达到88.2%,较传统分类方法识别率提升15个百分点左右,相比于其他神经网络模型具有识别率高、所需时间短的优点,满足实际工业需求。
Abstract
Herein, a classification method based on an improved deep convolutional neural network is proposed to address the problem that the artificial classification of bobbins is time-consuming, labor-intensive, and not sufficiently intelligent in the actual production of textile mills. First, the original network structure was improved based on the AlexNet neural network model framework. All convolutional layers used 3×3 size convolution kernels and multiple convolution kernels in series to extract more abstract features of objects. Next, we reintegrated the sliding average, conduct L2 regularization, and used other tricks to improve the generalization ability. Moreover, the L_ReLU activation function was used to avoid the “death” phenomenon of some neurons. Consequently, the test samples were input into the trained neural network to achieve the classification of bobbins. Experimental results show that the recognition rate of the method is 88.2%, which is approximately 15 percentage points higher than that by the traditional classification method. Compared with other neural network models, the proposed method demonstrates the advantages of high recognition rate and short time, which complies with the actual industrial requirements.

1 引言

纱管是纺纱厂大量使用的一种绕纱工具[1]。作业过程中,工人依据纱管本体颜色或形状的不同区分不同批号的纱线。实际生产中,作业环境光线暗、纱管颜色相近和人眼难以区分等因素会导致纱管分拣的出错率升高,从而造成纺织生产过程中生产残次布匹。为了避免这种情况,当前国内外纺织厂普遍做法都是依据纱管本体颜色或形状作为区分纱线种类的主要依据[2]。张帆等[3]对纱管图像进行色偏修正、滤波等预处理获取颜色信息,再利用模板匹配方法识别纱管。杨立志等[4]同样采用传统机器学习方法先对每幅图像进行HSV(Hue,Saturation,Value)颜色转换、滤波去噪等预处理,最后将色调及饱和度作为特征,利用支持向量机(SVM)作为分类器进行纱管最终分类。传统方法需对图像进行预处理,再对图像进行人工特征提取。这种做法的弊端是在整个过程中需要大量人为参与设计,并且特征提取需要设计人员具有丰富的经验。

近年来卷积神经网络(CNN)在图像识别分类领域取得了优秀表现,基于端到端的CNN具有逐层迭代和逐层抽象、全自动深度挖掘图像特征及表达能力强等特点。2012年AlexNet模型[5]在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛中获得冠军,重要的是其证明了CNN在复杂模型下的有效性。2014年VGG-16(Visual Geometry Group 16)模型[6]加深网络层数且在比赛中获得第二名,但其结构简单,易于理解,因此避免人工提取特征的复杂性和局限性,提升识别率。本文在AlexNet模型上参考VGG-16网络特性,对原有网络结构进行改进,并加入L2正则化和滑动平均等方法提升网络泛化能力,最后利用训练好的网络对纱管样本进行分类识别测试。

2 网络模型

2.1 卷积神经网络

1998年LeNet模型[7]对于手写数字识别的准确率达到99%,并且LeNet的实现也确立了CNN的结构。CNN主要有卷积层、池化层和全连接层3层主要结构。卷积层利用多个卷积核对图像进行卷积操作,提取抽象高级特征,具有权值共享特点,减少参数,再利用激活函数对卷积后的特征图进行非线性映射,输出图谱作为下一层输入。池化层又称为下采样层,主要操作包含最大池化和平均池化,该层主要作用是对卷积输出的图谱进行下采样操作,降低特征维度,选取部分像素点以达到减少参数,避免出现过拟合现象。在卷积层和池化层后连接全连接层,全连接层的作用是将二维图谱信息拉伸为一维特征向量,并使用Softmax或SVM等分类器进行分类。随着深度学习的迅速发展,越来越多的神经网络模型被提出,2014年Google公司提出的GoogleNet模型[8]为第一个版本,在这个模型中加入了inception模块,使得神经网络向更宽结构发展;2016年He等[9]提出ResNet(Residual Neural Network)因加入残差(residual)模块,使得网络达到152层,让神经网络向更深层次发展。在ResNet基础上,卓东等[10]和褚晶辉等[11]将迁移学习思想应用在短切毡缺陷分类和乳腺肿瘤诊断上,在一定程度上克服了小数据样本的过拟合现象,提高了识别率。

2.2 AlexNet模型

在AlexNet模型基础上,马永杰等[12]对其卷积层数量进行改进,应用于交通标志识别。陈清江等[13]对步长和卷积核大小进行改进,应用于图像融合领域。周天顺等[14]对网络层数进行削减,并用SVM代替原有的Softmax层,应用于遥感图像分类。马永杰等[15]又针对AlexNet模型使用多层特征融合并利用主成分分析法对所得高维特征进行降维,将其构成一个具有多属性的车辆特征向量,应用于车辆识别。因此实验选择结构相对简单且识别效果高效的AlexNet模型进行改进,该模型结构如图1所示。

图 1. AlexNet模型结构

Fig. 1. AlexNet model structure

下载图片 查看所有图片

该网络模型输入大小为224 pixel×224 pixel的彩色图像,利用5个卷积层(Conv)来提取图像深层次特征,第1个卷积层有96个大小为11×11的卷积核,第2个卷积层有256个大小为5×5的卷积核,最后3个卷积层直接串联后再池化。3个池化层(pooling)均进行最大池化下采样操作,池化核大小均为3×3,步长为2。最后一个池化层后连接3个全连接层(FC),输出为1000分类。

3 网络模型的改进及优化

3.1 神经网络模型结构的选取

输入3D彩色图像,其对应的二维平面图尺寸为127 pixel×127 pixel,分析VGG-16结构和性能后,再针对AlexNet进行卷积和池化层调整,设计出4种识别网络模型,如表1所示。分别对卷积核大小、网络层数及池化核大小进行调整,网络I和网络II的区别在于卷积核大小不同,以此来验证卷积核大小对网络的影响;网络I和网络III的区别在于池化核大小不同,因在AlexNet中采用大小k=3,步长s=2的卷积核,在VGG-16网络中采用大小k=2,步长s=2,以此来验证ks对网络的影响;最后网络I和IV区别在于网络层数不同,以此来验证层数对网络的影响。最终通过后续对比实验选取最优的网络结构进行再优化。

表 1. 基于AlexNet的4种网络结构

Table 1. Four kinds of network structures based on AlexNet

NetworkLayerConv1Pooling1Conv2Conv3Pooling2Conv4Conv5Conv6Pooling3
I83×33×33×33×33×33×33×33×3
II85×53×35×55×53×35×55×53×3
III83×32×23×33×32×23×33×32×2
IV93×33×33×33×33×33×33×33×33×3

查看所有表

3.2 神经网络的优化

在AlexNet中使用了LRN(Local Response Normalization)层,但通过实际数据测试发现该层并没有起到很好作用,反而增加了训练时间,因此删除LRN层。

学习率表示每次参数更新的幅度大小。学习率过大会导致待优化参数在最小值附近波动,无法收敛,所以无法获得最优值。学习率过小会导致待优化参数收敛缓慢,造成训练过程时间过长。因此使用动态学习率l来完成参数更新,表达式为

l=RDS/B,(1)

式中:R为学习率初始值;D为学习率衰减率;S为当前记录的训练轮数;B为每次输入的数据量。

深度神经网络中每个卷积层输出后都需要使用激活函数,激活函数的作用是给神经元引入非线性因素,使得神经网络可任意逼近非线性函数,提高模型表达能力。现主流的激活函数主要有Sigmoid、Tanh和ReLU。前两种函数会随着神经网络深度的增加,梯度消失,造成无法训练的结果,因此,现阶段几乎所有深度学习使用的激活函数都是ReLU函数,函数图像如图2所示。由图2可知该激活函数的弊端就是在训练神经网络时,一旦学习率没有设置好,第一次更新权重时,输入是负值,输出全部映射为0,那么含有ReLU的神经节点就会“死亡”,反向传播时梯度为0,权重不会更新,由此导致神经元不再学习。为解决该问题,使用He等[16]提出的激活函数L_ReLU[Leaky ReLU,f(x)],表达式为

f(x)=max(0,x),x0ax,   x<0,(2)

式中:a为一个很小的正数,可设置为0.05。当x<0时,ReLU函数值为0,但L_ReLU为一个很小的梯度值。

图 2. 激活函数

Fig. 2. Activation function

下载图片 查看所有图片

深度神经网络的参数太多,学习的特征太过于细致,产生过拟合现象,使得识别结果在训练数据集上表现很好,但在测试集上表现很差。接下来针对过拟合情况对神经网络再优化。正则化是一种防止过拟合提高泛化能力的优化方法,主要包括L1和L2正则化。在神经网络中使用L2正则化,表达式为

Ω(w)=w22,(3)

式中:w为权重,‖w22w的2-范数‖w2的平方,其中‖w2= i=1Nwi2,N表示向量个数。此时带L2正则化的损失函数为

L(w)=Ω(w)+E(w),(4)

式中:E(w)为训练样本的原始损失函数。加入正则化后的损失函数在训练过程中, w值不会太大(比如噪声),使网络更倾向于学习偏小的权重,提高泛化性。

除了加入L2正则化还使用滑动平均策略,防止过拟合。使用梯度下降算法训练模型时,每次更新权重时,为每个权重维护一个影子变量,该变量随着训练的进行,会稳定在一个接近真实权重值的附近。进行预测时,使用影子变量值代替真实变量值,该操作可提高模型在测试数据上的健壮性。滑动平均值s'为

s'=ds'+(1-d)v,(5)

式中:s'的初值设为0;v为影子变量初值; d=mind,1+n10+n,其中n为轮数,由此来控制d值的大小。由(5)式可知,d值决定着模型的更新速度,值越大越稳定,实际应用中常设置为十分接近1的常数(0.99或0.999),实验选择为0.99。

4 实验结果与分析

4.1 数据集

由于目前没有纱管样本数据库,根据实际工业生产情况,选取了最常见的8种纱管进行模拟,采用工业相机对无残纱及有不同量残纱的纱管分别进行不同角度拍摄,每种型号拍摄30张图像,再对每张原图进行垂直和水平镜像翻转、添加高斯噪声和椒盐噪声、不同角度旋转及高斯模糊等处理,以此来扩充数据集。最终每张图像扩充到15张,所以每一种纱管共450张图像,一共3600张纱管数据集图像。部分样本如图3所示,其中选取90%图像作为训练集,10%作为测试集。

4.2 实验平台及流程

为对提出的神经网络模型进行纱管分类性能评估,进行了大量对比实验。实验中选取的纱管样本,包括黑色、蓝色、紫色、绿色、墨绿色、橙色、黄色和棕色共8种类型纱管,共3600张图像。实验在Window 10系统、16 G内存、Intel i7-7700K、英伟达GTX1080显卡配置下,使用Python3.5,在TensorFlow1.12深度学习平台上进行实验。神经网络训练流程如图4所示。

图 3. 数据集样本。(a)(b)黑色;(c)(d)黄色;(e)(f)绿色;(g)(h)棕色;(i)(j)墨绿;(k)(l)橙色;(m)(n)蓝色;(o)(p)紫色

Fig. 3. Dataset samples. (a)(b) Black; (c)(d) yellow; (e)(f) green; (g)(h) brown; (i)(j) blackish green; (k)(l) orange; (m)(n) blue; (o)(p) purple

下载图片 查看所有图片

图 4. 神经网络训练流程

Fig. 4. Neural network training process

下载图片 查看所有图片

图4中FP表示前向传播过程,该过程经过卷积池化等操作计算得到网络输出;BP表示反向传播过程,该过程不断更新网络权值和偏置等参数,使得损失值不断降低。实验加入正则化、滑动平均和L_ReLU激活函数等技巧来提升网络的泛化能力。

4.3 实验结果及分析

利用纱管样本的训练集经表1的4种网络训练后,再利用测试集进行性能评估,选取最优网络结构。经反复实验,实验参数设置如下:初始学习率设为0.001,衰减率为0.99,滑动平均衰减率为0.99,每次训练样本批次为30次,一共迭代2000次,每50次记录一次准确率,最终取每个模型准确率最大值,性能测试结果如表2所示。

表 2. 4种网络性能表现

Table 2. Four kinds of network performance

NetworkIIIIIIIV
Training time /h2.42.12.73.1
Accuracy rate /%89.3181.7485.2088.42

查看所有表

对比网络I和网络II,在卷积操作上将全部卷积层替换成3×3小卷积核的分类性能相比于5×5的大卷积核有所提升,因为在相同感受野下,小卷积核得到更少的参数和更强的非线性变换,所以提取特征能力更强。网络I和网络III对比验证了当池化核尺寸大于步长时,产生的重叠池化可提升泛化能力;网络I和网络IV相比,增加层数也就增加模型的复杂度,样本量不够大时,过深网络反而会使分类性能降低。经性能测试分析后,最终选取网络I模型结构的卷积池化层。原网络有3个全连接层,其中2个全连接层的神经元都是4096个,结构一模一样,因此设计模型结构时去除一层全连接层,只用2个全连接层,最终设计网络框架结构和参数分别如图5表3所示。

图 5. 改进的神经网络模型结构

Fig. 5. Improved neural network model structure

下载图片 查看所有图片

表 3. 改进的AlexNet模型参数

Table 3. Improved AlexNet model parameters

LayerLayerinputConvolution kernelConvolutionoutputPoolingLayer output
SizeNumberStepSizeStep
Conv1127×127×33×3641127×127×64127×127×64
Pooling1127×127×643×3263×63×64
Conv263×63×643×3128163×63×12863×63×128
Conv363×63×1283×3128163×63×12863×63×128
Pooling263×63×1283×3231×31×128
Conv431×31×1283×3256131×31×25631×31×256
Conv531×31×2563×3256131×31×25631×31×256
Pooling331×31×2563×3215×15×256
FC115×15×256256
FC22568

查看所有表

为了验证在改进网络模型结构后加入L2正则化和滑动平均,及新的激活函数L_ReLU是否有效防止过拟合,先将原AlexNet模型与未加入防过拟合算法改进后的网络模型和加入L2正则化等技巧改进后的网络模型进行对比实验。实验在测试集中随机选取150张样本,使用训练集训练好的网络直接输入进行测试。将实验结果与人工判断的正确结果进行比较,得到测试错误量及错误率,如表4所示。

表4可以看到,改进的网络结构相比于原AlexNet模型,降低了错误率,而加入防过拟合优化的网络模型,错误率达到最低。

表 4. 优化技巧对模型的影响

Table 4. Impact of optimization techniques on model

ModelAlexNetImproved model without techniqueImproved model with technique
Amount of error564328
Error rate0.3730.2860.186

查看所有表

为了进一步验证数据集的数量在设计的神经网络上对分类精度的具体影响,依旧采用上述实验过程,不同的是输入的数据集分别采用2500张、3000张和3600张三种规模的数据量去训练网络。用同一测试样本进行评估,每50次记录一个点,最终测试分类精度如图6所示。

图6可以看到,随着数据数量的增加,识别率也在不断提升,最终基本稳定在一个固定值附近,同时这也符合在一定范围内训练样本数量的增加会提升分类精度的猜想。

图 6. 训练样本数量对于测试精度的影响

Fig. 6. Impact of training sample number on test accuracy

下载图片 查看所有图片

因为神经网络架构参照AlexNet模型,并在其基础上针对所作的纱管数据集进行改进。所以与AlexNet模型作对比,使用数据集进行测试对比实验。先针对同一样本分别作出AlexNet模型和改进后模型的第1,3,5个卷积层的部分卷积特征图,如图7所示。

图 7. 卷积特征图。AlexNet模型的(a)第1层特征图,(b)第3层特征图,(c)第5层特征图;改进模型的(d)第1层特征图,(e)第3层特征图,(f)第5层特征图

Fig. 7. Convolution feature map. AlexNet model (a) layer 1 feature map, (b) layer 3 feature map, (c) layer 5 feature map; improved model (d) layer 1 feature map, (e) layer 3 feature map, (f) layer 5 feature map

下载图片 查看所有图片

图7可以看到在第1个卷积层,两种网络均能提取出低层特征,如图像纹理和边缘等;在第3个卷积层,所提网络模型提取的特征相比于AlexNet模型更加抽象化,不仅仅是边缘轮廓基本特征;第5次卷积操作后,两种模型都提取了抽象化高级特征,但在所提网络模型特征图中的纱管更加局部化,甚至人眼无法分辨其内容,以此来滤除无关特征信息,提升泛化能力。

训练和测试过程中,可通过绘制精度和损失曲线直观地看到网络性能,如图8图9所示,分别绘制了训练集、测试集及损失值曲线,图8(a)、图9(a)中实线为训练集准确率,虚线为测试集准确率。

在两个神经网络模型上利用纱管数据集迭代2000周期后,损失值和识别率都趋于稳定状态。由图8可以看到AlexNet模型在训练集上的识别率表现特别好,达到接近98%的识别率,但在测试集上表现很差,只有60%左右的准确率,这是由于原网络含有过多参数,在小数据集上学习过于精细,产生明显的过拟合现象。由图9可以看到改进神经网络模型在训练集上达到91%的识别率,虽低于AlexNet模型,但在测试集上达到了88%左右的识别率,具有良好的泛化能力,效果远好于AlexNet模型。

图 8. AlexNet模型的准确率和损失曲线。(a)训练和测试准确率;(b)损失值曲线

Fig. 8. Accuracy and loss curves of AlexNet model. (a) Training and test accuracy; (b) loss curve

下载图片 查看所有图片

图 9. 改进模型的准确率和损失曲线。(a)训练和测试准确率;(b)损失值

Fig. 9. Accuracy and loss curves of improved model. (a) Training and test accuracy; (b) loss curve

下载图片 查看所有图片

为了客观验证改进神经网络模型的性能,分别将其与文献[ 4]的SVM,文献[ 7]改进的AlexNet模型及AlexNet,VGG-16网络模型进行对比,结果如表5所示。

表 5. 不同方法识别性能对比

Table 5. Comparison of recognition performance of different methods

AlgorithmTraining time /hTraining accuracy /%Test accuracy /%Number of parameters /M
Algorithm of Ref. [4]0.281.674.3
Algorithm of Ref. [7]3.395.382.625.2
AlexNet5.498.161.260.3
VGG-166.399.267.7138.1
Improved algorithm2.491.588.215.8

查看所有表

表5分别记录了5种方法所用训练时间、训练准确率、测试准确率及模型参数量。可以看到,文献[ 4]是传统分类方法,所需时间最短,训练精度和测试精度尚可,但该类方法需人工提取特征,具有局限性。相比所提方法,文献[ 7]改进后的方法训练时间偏长,训练精度有所提升但测试精度低于所提方法,网络所含参数量多于所提方法。AlexNet及VGG-16两种经典方法的训练准确率很优秀,但在测试准确率上所提方法提升超过20个百分点,由参数看到这两种网络很复杂,过多的参数不仅对电脑硬件配置要求高,需大量时间训练学习,甚至将一些噪声当作纱管特征,从而产生过拟合现象。改进的方法,虽训练准确率低于其他一些方法,但在测试集表现和网络参数数量都优于其他网络。实验结果表明所提方法的识别率达到88.2%,较文献[ 4]和文献[ 7]的传统分类方法识别率提升6~15个百分点。

5 结论

设计改进的AlexNet模型实现了对纱管图像的分类,神经网络自动提取深层次抽象特征弥补人工提取特征的不足。对比实验可以看到改进后的网络模型不仅学习时间短,而且在训练集和测试集都取得良好的识别率。虽AlexNet和VGG-16网络在训练集上准确率很高,但在测试准确率上所提方法却提升超过20个百分点,这是由于过深、过复杂的神经网络在实际生产中,在纱管数据集上提取特征时学习过于精细,甚至将一些噪声当作纱管特征,从而产生过拟合现象。对模型结构进行简化,使用更少的层数和更小的卷积核,并针对过拟合进行滑动平均,正则化优化,实验结果验证所提方法的优越性。虽改进的神经网络模型在测试集上的识别率高于其他方法,但仍有提升空间,下一步工作是继续扩充数据集,增加迭代次数,从而提升识别率。

参考文献

[1] 姬建正, 刘建立, 高卫东, 等. 基于数字图像处理的纱线线密度测量[J]. 纺织学报, 2011, 32(10): 42-46.

    Ji J Z, Liu J L, Gao W D, et al. Measurement of yarn linear density based on digital image processing[J]. Journal of Textile Research, 2011, 32(10): 42-46.

[2] Ozkaya Y A. Digital image processing and illumination techniques for yarn characterization[J]. Journal of Electronic Imaging, 2005, 14(2): 023001.

[3] 张帆, 张团善, 冀永乐, 等. 基于机器视觉的纺纱管颜色分拣算法研究[J]. 西安工程大学学报, 2018, 32(5): 560-566.

    Zhang F, Zhang T S, Ji Y L, et al. Research on color sorting algorithm of spinning tube based on machine vision[J]. Journal of Xi'an Polytechnic University, 2018, 32(5): 560-566.

[4] 杨立志, 周方颖. 基于机器视觉的毛纱管聚类方法[J]. 毛纺科技, 2017, 45(8): 85-88.

    Yang L Z, Zhou F Y. Clustering method for bobbin based on machine vision[J]. Wool Textile Journal, 2017, 45(8): 85-88.

[5] KrizhevskyA, SutskeverI, Hinton GE. Imagenet classification with deep convolutional neural networks[C]∥Advances in neural information processing systems, December 3-6, 2012, Lake Tahoe, Nevada, United States. New York: Curran Associates, 2012: 1097- 1105.

[6] SimonyanK, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. ( 2015-04-10)[2019-08-09]. https:∥arxiv.xilesou.top/abs/1409. 1556.

[7] LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied todocument recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

[8] SzegedyC, LiuW, JiaY, et al. Going deeper with convolutions[C]∥Proceedings of the IEEE conference on computer vision and pattern recognition, June 20-25, 2015, Miami, FL, USA. New York: IEEE, 2015: 1- 9.

[9] HeK, ZhangX, RenS, et al. Deep residual learning for image recognition[C]∥Proceedings of the IEEE conference on computer vision and pattern recognition, December 10-14, 2015, San Diego, USA. New York: IEEE, 2016: 770- 778.

[10] 卓东, 景军锋, 张缓缓, 等. 基于卷积神经网络的短切毡缺陷分类[J]. 激光与光电子学进展, 2019, 56(10): 101009.

    Zhuo D, Jing J F, Zhang H H, et al. Classification of chopped strand mat defects based on convolutional neural network[J]. Laser & Optoelectronics Progress, 2019, 56(10): 101009.

[11] 褚晶辉, 吴泽蕤, 吕卫, 等. 基于迁移学习和深度卷积神经网络的乳腺肿瘤诊断系统[J]. 激光与光电子学进展, 2018, 55(8): 081001.

    Chu J H, Wu Z R, Lü W, et al. Breast cancer diagnosis system based on transfer learning and deep convolutional neural networks[J]. Laser & Optoelectronics Progress, 2018, 55(8): 081001.

[12] 马永杰, 李雪燕, 宋晓凤. 基于改进深度卷积神经网络的交通标志识别[J]. 激光与光电子学进展, 2018, 55(12): 121009.

    Ma Y J, Li X Y, Song X F. Traffic sign recognition based on improved deep convolution neural network[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121009.

[13] 陈清江, 李毅, 柴昱洲. 一种基于深度学习的多聚焦图像融合算法[J]. 激光与光电子学进展, 2018, 55(7): 071015.

    Chen Q J, Li Y, Chai Y Z. A multi-focus image fusion algorithm based on depth learning[J]. Laser & Optoelectronics Progress, 2018, 55(7): 071015.

[14] 周天顺, 党鹏飞, 谢辉. 基于改进的AlexNet网络模型的遥感图像分类方法研究[J]. 北京测绘, 2018, 32(11): 1263-1266.

    Zhou T S, Dang P F, Xie H. Research on remote sensing image classification based on improved AlexNet network model[J]. Beijing Surveying and Mapping, 2018, 32(11): 1263-1266.

[15] 马永杰, 马芸婷, 陈佳辉. 结合卷积神经网络多层特征和支持向量机的车辆识别[J]. 激光与光电子学进展, 2019, 56(14): 141001.

    Ma Y J, Ma Y T, Chen J H. Vehicle recognition based on multi-layer features of convolutional neural network and support vector machine[J]. Laser & Optoelectronics Progress, 2019, 56(14): 141001.

[16] He KM, Zhang XY, Ren SQ, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 1026- 1034.

徐健, 吴曙培, 刘秀平. 基于改进深度神经网络的纱管分类[J]. 激光与光电子学进展, 2020, 57(10): 101014. Jian Xu, Shupei Wu, Xiuping Liu. Classification of Bobbins Based on Improved Deep Neural Network[J]. Laser & Optoelectronics Progress, 2020, 57(10): 101014.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!