激光与光电子学进展, 2021, 58 (8): 0810010, 网络出版: 2021-04-12   

基于多特征融合和混合卷积网络的高光谱图像分类 下载: 977次

Hyperspectral Images Classification Based on Multi-Feature Fusion and Hybrid Convolutional Neural Networks
作者单位
河南理工大学测绘与国土信息工程学院, 河南 焦作454000
摘要
针对三维卷积网络在训练样本较少时对高光谱图像的分类精度不理想问题,提出了一种高效的基于多特征融合和混合卷积网络的分类模型。首先,对高光谱图像进行降维处理后用三维卷积层提取深层空谱联合特征。然后,引入残差连接并通过特征图连接和逐像素相加进行多特征融合,实现特征重用、增强信息传递。最后,用二维卷积层对提取的特征进行空间信息强化,实现图像分类。实验结果表明,在三个公开高光谱数据集Indian Pines、Salinas和University of Pavia中分别用标记样本的5%、1%、1%作为训练样本时,本模型的分类精度分别为97.09%、99.30%、97.60%,可以有效提升小样本情况下的高光谱图像分类效果。
Abstract
Aiming at the problem that the classification accuracy of hyperspectral images is not ideal when the amount of training samples of three-dimensional convolutional network is limited, an efficient classification model based on multi-feature fusion and hybrid convolutional neural networks is proposed in this paper. First, after the dimensionality reduction processing is performed on hyperspectral images, the three-dimensional convolutional layer is used to extract deep hierarchical spatial-spectral joint features. Then, the residual connection is introduced to perform multi-feature fusion through feature map concatenation and pixel-wise addition to realize feature reuse and enhance information transmission. Finally, a two-dimensional convolutional layer is used to enhance the spatial information of the extracted features and realize image classification. The experimental results show that in the three publicly available hyperspectral data sets Indian Pines, Salinas and University of Pavia, 5%, 1% and 1% of the labeled samples are used as training data, respectively, the classification accuracy of the model is 97.09%, 99.30% and 97.60%, respectively, which can effectively improve the classification accuracy of hyperspectral images for under small sample condition.

1 引言

成像光谱仪能在数十至数百个窄波段内获取目标地物丰富的光谱信息,高光谱图像的像素级分类结果,在遥感测绘、地质勘察、精准农业、环境监测和灾害评估等领域得到了广泛应用[1]。近年来,以卷积神经网络(CNN)为代表的深度学习方法被成功用于高光谱图像的分类研究,相比传统分类方法,深度学习方法在分类精度方面有很大提升[2]。高光谱数据中带标签的样本数量较少,因此,在训练样本有限条件下取得理想的分类效果具有一定的挑战性[3]

高光谱图像具有的高维性、高非线性和小样本等特点,要求分类器具有提取和处理深度抽象特征的能力[4-5]。传统的机器学习分类器,如支持向量机(SVM)、随机森林(RF)、多元逻辑回归(MLR),在缺少深层特征的支持下,难以取得理想的分类效果[6-7]。近年来,以CNN为代表的深度学习模型为高光谱图像分类的特征提取提供了解决方案[8-9]。CNN用三维(3D)数据块作为输入,可直接学习待分类像素的光谱特征及其一定大小邻域内的空间特征,对高光谱图像的分类精度较高[10]

基于CNN的高光谱图像分类主要用二维CNN(2D-CNN)或3D-CNN提取空谱特征。2D-CNN用降维后的高光谱数据作为输入,保留的主成分数量和邻域窗口尺寸区别较大[11-12]。因此,Chen等[13]和Li等[14]分别构建了3D-CNN,直接对原始高光谱数据进行特征提取,其中,文献[ 13]使用的邻域尺寸为27×27,卷积核尺寸为5×5×32;文献[ 14]使用的邻域尺寸和卷积核尺寸相对较小。实验结果表明,相比2D-CNN,3D-CNN的分类精度有所提高,原因是3D-CNN可以更好地探索高光谱图像中丰富的光谱信息。在3D-CNN的基础上进行网络优化设计,是基于CNN模型进行高光谱图像分类研究的主要方向之一。此外,由于高光谱数据的标记工作费时费力,因此小样本高光谱图像的分类近年来受到了广泛关注[15]。与浅层神经网络相比,深层神经网络可确保提取特征的鲁棒性和判别力,减轻了过拟合现象对分类精度的影响[16]。为了提高高光谱图像的分类精度,人们通过残差网络(ResNet)[17]的残差连接加深网络深度和优化模型的拓扑结构。Lee等[18]在2D-CNN中引入残差连接,构建了较深的2D-CNN(Res-2D-CNN),提升了高光谱图像的分类精度。刘冰等[6]结合3D-CNN和残差连接,成功训练了一个12层的3D-CNN(Res-3D-CNN),进一步提升了高光谱图像的分类精度。Zhong等[19]通过改进残差连接作用的位置构建了光谱空间残差网络(SSRN),通过分离空间特征学习和光谱特征学习进一步改善了提取特征的判别力。魏祥坡等[21]借鉴稠密连接网络(DenseNet)[20]中的密集单元,通过特征图逐像素相加和连接实现了多层特征重用,并加强了网络中的信息传递。颜铭靖等[22]提出了一种空洞卷积残差网络,通过在深层残差网络中引入空洞卷积增大卷积核的感受野,在不增加网络参数量的情况下增强了网络提取空谱特征的能力。Roy等[23]提出了一种三维二维混合卷积网络(HybridSN),在连续的三维卷积层后使用二维卷积层进一步处理提取的空谱特征,并通过实验验证了混合卷积网络在高光谱图像分类中的应用潜力。Feng等[24]在HybirdSN的基础上引入非恒等残差连接和深度可分离卷积,构建了R-HybridSN(Residual HybridSN),减少了网络参数,增加了学习特征的路径,增强了光谱信息在网络中的流动性,进一步提升了小样本高光谱图像的分类精度。但R-HybridSN特征融合方式单一,且对浅层特征的利用不足,存在较大的改进空间。

为了进一步提升小样本高光谱图像的分类精度,本文提出了一种多特征融合HybridSN(M-HybridSN),通过特征图连接和逐像素相加两种方式进行多特征融合,使网络能更高效地学习高光谱数据中的复杂特征。通过与HybirdSN、R-HybirdSN等模型在Indian Pines(IP)、Salinas(SA)、University of Pavia(PU)三个公开数据集上的对比实验验证了本模型的有效性。

2 实验方法

2.1 三维二维混合卷积网络

本模型属于混合卷积网络,基本单元包括三维卷积层和二维深度可分离卷积层。三维卷积层在高光谱数据的空间维和光谱维同时进行运算,单个三维卷积核对三维高光谱数据块的运算结果是三维张量,多个三维卷积核提取的特征图可看作四维张量,因此三维卷积层能更好地探索高光谱数据的空谱联合特征。深度可分离卷积本质上是二维卷积,将卷积过程分为空间卷积和通道卷积两步[25]。相比传统的二维卷积,深度可分离卷积一方面可以降低网络的参数量,另一方面更适合高光谱图像特殊的数据结构[24]

在HybridSN中,首先用三维卷积进行空谱联合特征学习,然后用二维深度可分离卷积进行空间信息增强。为了使数据维度满足二维卷积层的要求,将最后一层三维卷积层输出的特征图在光谱维和通道维连接,即将维度为W×H×B×C的四维张量重组(reshape)成维度为W×H×(BC)的三维张量,其中,WH为特征图的宽和长,B为波段数,C为通道数。特征图送入全连接层前,要展平(flatten)成一维向量。本模型在混合网络的基础上,引入残差连接进行多特征融合,在加强网络中信息传递的同时强化网络学习多尺度特征和多抽象层次特征的能力。

2.2 基于残差连接的两种特征融合方式

基于残差连接实现的特征融合是构建深层CNN的核心。目前,CNN中的特征融合方式主要有特征图逐像素相加和特征图连接两种。其中,逐像素相加常用于融合某两层输出的特征图,可加强网络中的信息传递;特征图连接往往用于连接多层输出的特征图,可实现特征重用。设某CNN第k层的输出为Xk,若第k层使用逐像素相加的方式融合本层输入和输出的特征图,则

Xk=Hk(Xk-1)+Gk(Xk-1),(1)

式中,Hk(·)为第k层对输入的非线性变换函数,Gk(·)为残差连接中包含对输入处理的函数。若为恒等残差连接,则Gk(Xk-1)=Xk-1。若第k层的输入为前l层特征图连接的结果,则

Xk=HkXk-1,Xk-2,,Xk-l,(2)

式中,[·]为特征图的连接操作,且lk

特征图逐像素相加为特征学习构建了额外的路径,但这种方式改变了特征图中像素的取值,对单个特征图输出的信息利用不够充分。连接的方式完整保留了前若干层特征图的信息,为网络中浅层特征的重用提供了解决方案。但相比逐像素相加,连接的方式增加了特征图的通道数,可能会造成冗余。因此在构建高光谱图像分类模型时,需要精心设计残差连接的位置和特征图融合的方式,保证增强网络学习特征能力的同时不过多地增加网络参数。

2.3 多特征融合

由待分类像素及其邻域像素的光谱向量构成的三维数据块包含丰富的光谱信息和空间信息,为了取得良好的分类效果,网络必须具有提取深层次抽象特征的能力;且对于不同分辨率、不同地物分布特点的高光谱图像,不同尺度、不同抽象级别的特征都对分类有重要影响。为了更有效地融合不同尺度、不同抽象级别的特征,提出了一种多特征融合模块,该模块与R-HybridSN中三维卷积层的布局对比示意图如图1所示。图1(c)为本模型中的多特征融合模块,包含分支A和分支B。其中,分支A包含4个卷积层(Conv),前3个卷积层用来学习空谱联合特征,用连接的方式进行多特征融合,共进行3次连接。第4个卷积层起降低特征图通道数的作用。分支B包含1个卷积核尺寸较大的卷积层。将分支A和分支B的结果进行逐像素相加,最后作为多特征融合模块的输出。

图 1. R-HybridSN和M-HybridSN模块的对比。(a) R-HybridSN第一层的多尺度卷积层;(b) R-HybridSN的非恒等残差连接;(c) M-HybridSN的多特征融合模块

Fig. 1. Comparison of R-HybridSN and M-HybridSN modules. (a) Multi-scale convolutional layer of the first layer of R-HybridSN; (b) non-identical residual connection of the R-HybridSN; (c) multi-feature fusion module of the M-HybridSN

下载图片 查看所有图片

连续卷积层学习的特征有两个特点:1)特征的抽象程度越来越高;2)特征图中单个像素在原始图像中映射的区域(感受野)越来越大。因此,在多特征融合模块分支A中,最终连接的特征图既有多尺度特点,又有多抽象级别的特点。相比R-HybridSN仅在网络开始使用的多尺度卷积层,本模型的多特征融合更彻底。在多特征融合模块分支A中,若不存在特征图连接,则最后输出特征图的感受野为7×7×7。由于重用了主路径上的浅层特征,实际的感受野小于7×7×7。因此,在分支B使用卷积核尺寸为7×7×7的卷积层对输入进行处理后,再进行特征融合,可进一步强化网络对空谱特征的学习能力。

2.4 M-HybridSN的结构

M-HybridSN是包含三维卷积和二维卷积的混合网络,其输入为经主成分分析(PCA)降维后的高光谱图像块。取待分类像素及其邻域若干像素的光谱向量组成图像块,记为PM×M×D,其中,M为选定的邻域尺寸,D为降维后的波段数。通过权衡空间特征学习的需要和模型复杂度,取M=15,D=16。M-HybridSN包含13个卷积层(11个三维卷积层,2个二维卷积层),卷积层的类型、卷积核尺寸、卷积核个数如图2所示。对于输入的高光谱图像块,本模型用2个多特征融合模块学习深层空谱特征,然后用二维深度可分离卷积强化空间特征。在2个多特征融合模块之间,有一层步长为2的三维卷积层,可对特征图进行降维处理。网络中卷积层的非线性激活函数为修正线性单元(ReLU),经过全连接层进一步对特征进行抽象重组,最后用Softmax层完成分类。

图 2. M-HybridSN的结构

Fig. 2. Structure of the M-HybridSN

下载图片 查看所有图片

3 实验结果与分析

3.1 实验数据

为了验证本模型的有效性,用三个公开的高光谱数据集进行分类实验,包括数据集IP、SA和PU。数据集IP中的图像尺寸为145 pixel×145 pixel,空间分辨率为20 m,主要包括农作物、树林和其他多年生植物等16类,标记样本总数为10249个。数据集SA中的图像尺寸为512 pixel×217 pixel,空间分辨率为3.7 m,主要包括植被、裸土和葡萄园等16类,总标记样本数为54129个。数据集PU中的图像尺寸为610 pixel×340 pixel,空间分辨率为1.3 m,标记样本被分为9类,大部分为城镇的地物,如金属板、屋顶、混凝土路面,标记样本总数为42776个。三个数据集的标记样本被随机划分为训练集、验证集和测试集,实验主要关注小样本高光谱图像的分类,因此需尽可能降低训练样本的数量。其中,数据集IP的训练集、验证集和测试集样本数占标记样本总数的比例分别为5%、5%、90%。数据集SA和PU的训练集、验证集和测试集样本数占标记样本总数的比例分别为1%、1%、98%。对于数据集IP,在训练样本占标记样本总数5%的比例下,部分地物仅包含1到2个训练样本,且不同地物之间训练样本的数量极不平衡,因此实验研究的小样本具有一定代表性。三个数据集训练、验证、测试样本的详细分布如表1~表3所示。

表 1. 数据集IP的分布情况

Table 1. Distribution situation of the data set IP

No.CategoryLabeled sampleTrainingValidationTesting
1alfalfa462341
2corn-notill142871721285
3corn-mintill8304241747
4corn2371212213
5grass-pasture4832424435
6grass-trees7303637657
7grass-pasture-mowed282125
8hay-windrowed4782424430
9oats201118
10soybean-notill9724849875
11soybean-mintill24551231222210
12soybean-clean5933029534
13wheat2051010185
14woods126563631139
15buildings-grass-trees-drives3861920347
16stone-steel-towers935484
Total102495125129225

查看所有表

表 2. 数据集SA的分布情况

Table 2. Distribution situation of the data set SA

No.CategoryLabeled sampleTrainingValidationTesting
1brocoli_green_weeds_1200920201969
2brocoli_green_weeds_2372637373652
3fallow197620201936
4fallow_rough_plow139414141366
5fallow_smooth267827272624
6stubble395939403880
7celery357936363507
8grapes_untrained1127111311211046
9soil_vinyard_develop620362626079
10corn_senesced_green_weeds327833333212
11lettuce_romaine_4wk106811101047
12lettuce_romaine_5wk192719201888
13lettuce_romaine_6wk91699898
14lettuce_romaine_7wk107011101049
15vinyard_untrained726872737123
16vinyard_vertical_trellis180718181771
Total5412954154153047

查看所有表

表 3. 数据集PU的分布情况

Table 3. Distribution situation of the data set PU

No.CategoryLabeled sampleTrainingValidationTesting
1asphalt663166666499
2meadows1864918618618277
3gravel209921212057
4trees306430313003
5painted metal sheets134514131318
6bare Soil502950504929
7bitumen133014131303
8self-blocking bricks368237373608
9shadows947910928
Total4277642742741922

查看所有表

3.2 对比模型和实验设置

为了验证本模型的有效性,用Res-2D-CNN[18]、Res-3D-CNN[6]、HybridSN[23]、R-HybridSN[24]作为对比模型。不同模型的参数量、输入数据规模(M×M×D)如表4所示,其中,波段数以数据集IP为例。

表 4. 不同模型的参数量和输入数据规模

Table 4. Parameter number and input data scale of different models

ModelRes-2D-CNNRes-3D-CNNHybridSNR-HybridSNM-HybridSN
Parameter number10653602311845122176719112659296
Input data scale5×5×2009×9×20025×25×3015×15×1615×15×16

查看所有表

为了观察模型结构对分类精度的影响,排除其他因素,统一使用Adam作为模型优化器,学习率固定为0.001。为了保证所有模型均能够充分训练,参考相应文献的设定,将Res-2D-CNN、Res-3D-CNN、HybridSN、R-HybridSN和M-HybridSN的训练轮数分别设置为200、200、200、100、100。训练时监控验证集的分类精度,在指定的训练轮数内保存验证集精度最高的模型。

3.3 实验结果

用总体精度(OA)、平均精度(AA)和Kappa系数定量衡量模型的分类效果,不同模型在三个数据集上的分类结果如表5~表7所示。除了以上三种指标,还给出了每一类地物的分类精度。为了减少偶然因素对分类造成的影响,在每个模型上对每个数据集连续进行20次实验,表中为20次实验得到的平均值,±为数值为标准差。

表 5. 不同模型对数据集IP的分类结果

Table 5. Classification results of the data set IP by different models unit: %

No.Res-2D-CNNRes-3D-CNNHybridSNR-HybridSNM-HybridSN
19.5123.7858.5458.1765.61
272.3983.7393.0894.9895.28
360.3176.5396.5797.3897.36
437.8653.4775.0992.1694.51
580.1493.5494.0096.6897.01
694.0096.5497.1999.0898.63
734.6071.2082.4094.0099.80
899.1398.6698.7399.8199.93
No.Res-2D-CNNRes-3D-CNNHybridSNR-HybridSNM-HybridSN
93.8967.5083.8963.0676.67
1078.4285.7594.2795.8196.58
1184.1290.0297.9398.3198.55
1254.1963.4084.4992.4391.97
1385.1688.4392.6898.4697.41
1489.4497.4897.9699.2599.03
1552.9879.3583.1892.5296.80
1680.5493.6383.3398.2195.54
Kappa74.0 ± 2.884.5 ± 2.493.4 ± 1.296.3 ± 0.696.7 ± 0.4
OA77.28 ± 2.3386.42 ± 2.1394.26 ± 1.0896.74 ± 0.5297.09 ± 0.38
AA63.54 ± 4.6678.94 ± 3.2288.33 ± 2.4091.90 ± 2.5893.79 ± 1.99

查看所有表

表 6. 不同模型对数据集SA的分类结果

Table 6. Classification results of the data set SA by different models unit: %

No.Res-2D-CNNRes-3D-CNNHybridSNR-HybridSNM-HybridSN
166.0997.1399.98100.0099.92
299.3699.9299.9799.9699.99
361.7993.0099.8299.6299.56
499.1999.0997.3998.8799.22
594.6297.7598.7998.8399.21
699.9599.9799.7899.9099.91
797.3498.2499.7799.8899.91
882.9987.6699.0498.3398.96
999.1999.58100.0099.9999.96
1085.8191.1698.9898.0698.89
1183.7390.8398.9598.6298.83
1298.3299.2099.0999.8899.29
1395.2397.8897.2892.4196.99
1496.0798.2596.6093.9697.17
1570.4977.5298.5796.6198.90
1691.0886.4499.6999.4699.56
Kappa86.1 ± 1.691.6 ± 0.899.1 ± 0.398.5 ± 0.399.2 ± 0.3
OA87.54 ± 1.4092.48 ± 0.6999.20 ± 0.2798.66 ± 0.3199.30 ± 0.24
AA88.83 ± 2.6494.60 ± 0.5098.98 ± 0.2898.40 ± 0.4399.14 ± 0.30

查看所有表

图3~图5为1次实验中三个数据集用不同模型得到的分类结果,可以发现,Res-2D-CNN和Res-3D-CNN在训练样本较少时分类效果不够理想,存在较多噪声。而混合卷积的分类图像匀质性较好,分类效果好于单一模型。在三个混合模型中,M-HybridSN模型分类图像中的噪声较少且连续性较好,优于HybridSN模型。在数据集SA上,本模型的分类图像效果优于R-HybridSN模型的分类图像,在数据集IP和PU上,本模型和R-HybridSN模型的分类图像差距较小,需进一步通过定量实验数据进行对比。

表 7. 不同模型对数据集PA的分类结果

Table 7. Classification results of the data set PA by different models unit: %

No.Res-2D-CNNRes-3D-CNNHybridSNR-HybridSNM-HybridSN
192.1890.8192.1596.2195.04
297.4796.6399.5399.7099.88
315.3366.5490.5190.9393.77
494.9496.2492.5094.6292.92
599.4599.8697.7599.7999.57
688.0480.7599.4699.2599.50
740.7068.1296.2594.3694.92
886.9380.0191.7594.0995.68
997.4097.3875.0494.2392.85
Kappa85.0 ± 1.286.9 ± 1.994.8 ± 1.396.7 ± 0.696.8 ± 0.4
OA88.72 ± 0.8590.16 ± 1.4096.07 ± 0.9697.55 ± 0.4897.60 ± 0.33
AA79.16 ± 3.1086.26 ± 2.1092.77 ± 2.3395.91 ± 0.9696.01 ± 0.60

查看所有表

图 3. 数据集IP的分类结果

Fig. 3. Classification results of the data set IP

下载图片 查看所有图片

图 4. 数据集SA的分类结果

Fig. 4. Classification results of the data set SA

下载图片 查看所有图片

图 5. 数据集PU的分类结果

Fig. 5. Classification results of the data set PU

下载图片 查看所有图片

表5~表7的定量实验结果和分类图像表现出的结果基本一致。Res-2D-CNN的分类精度较低,在三个数据集上均存在较大差距,原因是二维卷积对深度空谱特征能力的探索不足。Res-3D-CNN的分类精度优于Res-2D-CNN,在数据集IP、SA、PU中,Res-3D-CNN的OA分别比Res-2D-CNN高出9.14、4.94、1.44个百分点,这表明三维卷积在探索深层空谱联合特征上具有一定的优势。相比单一的2D-CNN和3D-CNN,混合模型在三个数据集上的分类效果有较大提升,HybridSN在数据集IP、SA、PU上的OA分别比Res-3D-CNN高7.84、6.72、5.91个百分点,验证了混合模型在探索高光谱图像特征方面的潜力。引入残差连接和深度可分离卷积改进的混合模型在数据集IP、PU上的OA比HybridSN分别高2.48和1.48个百分点。在数据集SA上,R-HybridSN的分类精度略低于HybridSN,OA约低0.54个百分点。总体来看,R-HybridSN的分类性能优于HybridSN,这表明非恒等残差连接和深度可分离卷积对网络结构具有优化作用,但仍存在一定问题。

综上所述,M-HybridSN的综合表现最好,在数据集IP、SA、PU上的OA分别比R-HybridSN高0.35、0.64、0.05个百分点。从表4的参数量和输入数据规模来看,本模型的参数规模较小,且分类单个像素需要的数据量较少。考虑到模型本身的情况,M-HybridSN作为改进的混合卷积模型,在结构上具有一定先进性,对模型本身参数的利用率较高,能更好地挖掘高光谱数据丰富的空谱特征,利用较少的训练样本得到更好的分类结果。

3.4 非恒等残差连接分析

相比HybridSN、R-HybridSN模型,M-HybridSN模型的特点是用多特征融合模块连接了不同层的特征图,同时用大尺寸的非恒等残差连接进行进一步特征融合。为了探索多特征融合模块中非恒等残差连接对分类精度的影响,去掉多特征融合模块中的两个非恒等残差连接,并将非恒等残差连接卷积核尺寸依次设置为1×1×1、3×3×3、5×5×5和9×9×9,20次实验的平均值如图6所示。可以看出,相比M-HybridSN模型,去除非恒等残差连接的模型在三个数据集上的分类精度均有所降低,这表明该残差连接可提高分类精度。随着卷积核尺寸的增大,模型分类精度总体呈先升高后降低的趋势,且数据集IP的变化最明显,数据集SA次之,而数据集PU对卷积核尺寸不敏感。结合三个数据集的空间分辨率可知,多特征融合模块在非恒等残差连接分支使用大尺寸卷积核,对低空间分辨率高光谱图像分类有一定提升作用。但过大的卷积核会引入额外的参数,导致样本有限时出现过拟合。此外,文献[ 26]指出带有残差连接的网络等价于若干较浅子网络的集成,由非恒等残差连接构成的子网络对低分辨率高光谱图像的分类具有较大意义,下一步工作还需研究如何提升M-HybridSN模型对不同高光谱数据集的普适性。

图 6. 非恒等残差连接不同条件下的对比实验结果

Fig. 6. Comparative experiment results under different conditions of the non-identical residual connection

下载图片 查看所有图片

4 结论

针对高光谱图像小样本的特点,提出一种M-HybridSN模型。首先,用三维卷积层提取深层空谱联合特征;然后,用深度可分离卷积加强空间特征,经全连接层对特征进一步进行抽象重组;最后,由输出层完成分类。为了加强模型对浅层特征的重用,M-HybridSN模型在主路径用三维卷积连接不同层的特征图,同时引入大尺寸卷积核的非恒等残差连接构建次要路径,加强网络中的信息传递。用数据集IP、SA、PU中极少的标记样本训练模型进行分类实验,结果表明,相比其他模型,M-HybridSN模型在网络结构上具有一定先进性,在小样本高光谱图像的分类中表现较好。为了降低模型的计算复杂度和用较大邻域尺寸提取空间特征,用PCA对高光谱数据进行降维处理,但该过程会造成光谱信息的损失。因此,还需进一步研究如何在空间信息、光谱信息和计算复杂度三者之间达到平衡,同时在结构确定的情况下提高网络对不同数据集的适应能力。

参考文献

[1] 李盛阳, 刘志文, 刘康, 等. 航天高光谱遥感应用研究进展(特邀)[J]. 红外与激光工程, 2019, 48(3): 0303001.

    Li S Y, Liu Z W, Liu K, et al. Advances in application of space hyperspectral remote sensing(invited)[J]. Infrared and Laser Engineering, 2019, 48(3): 0303001.

[2] Zhang J, Wei F Y, Feng F, et al. Spatial-spectral feature refinement for hyperspectral image classification based on attention-dense 3D-2D-CNN[J]. Sensors, 2020, 20(18): 5191.

[3] Pan B, Shi Z W, Xu X. MugNet: deep learning for hyperspectral image classification using limited samples[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 145: 108-119.

[4] Zhou Y C, Wei Y T. Learning hierarchical spectral-spatial features for hyperspectral image classification[J]. IEEE Transactions on Cybernetics, 2016, 46(7): 1667-1678.

[5] 毕晓君, 周泽宇. 基于双通道GAN的高光谱图像分类算法[J]. 光学学报, 2019, 39(10): 1028002.

    Bi X J, Zhou Z Y. Hyperspectral image classification algorithm based on two-channel generative adversarial network[J]. Acta Optica Sinica, 2019, 39(10): 1028002.

[6] 刘冰, 余旭初, 张鹏强, 等. 联合空-谱信息的高光谱影像深度三维卷积网络分类[J]. 测绘学报, 2019, 48(1): 53-63.

    Liu B, Yu X C, Zhang P Q, et al. Deep 3D convolutional network combined with spatial-spectral features for hyperspectral image classification[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(1): 53-63.

[7] Bengio Y, Courville A, Vincent P. Representation learning: a review and new perspectives[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1798-1828.

[8] 张号逵, 李映, 姜晔楠. 深度学习在高光谱图像分类领域的研究现状与展望[J]. 自动化学报, 2018, 44(6): 961-977.

    Zhang H K, Li Y, Jiang Y N. Deep learning for hyperspectral imagery classification: the state of the art and prospects[J]. Acta Automatica Sinica, 2018, 44(6): 961-977.

[9] 刘玉珍, 蒋政权, 马飞, 等. 基于超图和卷积神经网络的高光谱图像分类[J]. 激光与光电子学进展, 2019, 56(11): 111007.

    Liu Y Z, Jiang Z Q, Ma F, et al. Hyperspectral image classification based on hypergraph and convolutional neural network[J]. Laser & Optoelectronics Progress, 2019, 56(11): 111007.

[10] Li S T, Song W W, Fang L Y, et al. Deep learning for hyperspectral image classification: an overview[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(9): 6690-6709.

[11] MakantasisK, KarantzalosK, DoulamisA, et al.Deep supervised learning for hyperspectral data classification through convolutional neural networks[C] //2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), July 26-31, 2015, Milan, Italy.New York: IEEE Press, 2015: 4959- 4962.

[12] Yue J, Zhao W Z, Mao S J, et al. Spectral-spatial classification of hyperspectral images using deep convolutional neural networks[J]. Remote Sensing Letters, 2015, 6(6): 468-477.

[13] Chen Y S, Jiang H L, Li C Y, et al. Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 6232-6251.

[14] Li Y, Zhang H K, Shen Q. Spectral-spatial classification of hyperspectral imagery with 3D convolutional neural network[J]. Remote Sensing, 2017, 9(1): 67.

[15] 杜培军, 夏俊士, 薛朝辉, 等. 高光谱遥感影像分类研究进展[J]. 遥感学报, 2016, 20(2): 236-256.

    Du P J, Xia J S, Xue Z H, et al. Review of hyperspectral remote sensing image classification[J]. Journal of Remote Sensing, 2016, 20(2): 236-256.

[16] EldanR, ShamirO. The power of depth for feedforward neural networks[EB/OL]. [2020-07-25]. http://arxiv.org/abs/1512.03965.

[17] He KM, Zhang XY, Ren SQ, et al.Deep residual learning for image recognition[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA.New York: IEEE Press, 2016: 770- 778.

[18] Lee H, Kwon H. Going deeper with contextual CNN for hyperspectral image classification[J]. IEEE Transactions on Image Processing, 2017, 26(10): 4843-4855.

[19] Zhong Z L, Li J, Luo Z M, et al. Spectral-spatial residual network for hyperspectral image classification: a 3-D deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(2): 847-858.

[20] HuangG, LiuZ, van der MaatenL, et al. Densely connected convolutional networks[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 2261- 2269.

[21] 魏祥坡, 余旭初, 谭熊, 等. 利用残差密集网络的高光谱图像分类[J]. 激光与光电子学进展, 2019, 56(15): 151006.

    Wei X P, Yu X C, Tan X, et al. Hyperspectral image classification based on residual dense network[J]. Laser & Optoelectronics Progress, 2019, 56(15): 151006.

[22] 颜铭靖, 苏喜友. 基于三维空洞卷积残差神经网络的高光谱影像分类方法[J]. 光学学报, 2020, 40(16): 1628002.

    Yan M J, Su X Y. Hyperspectral image classification based on three-dimensional dilated convolutional residual neural network[J]. Acta Optica Sinica, 2020, 40(16): 1628002.

[23] Roy S K, Krishna G, Dubey S R, et al. HybridSN:exploring 3-D-2-D CNN feature hierarchy for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(2): 277-281.

[24] Feng F, Wang S T, Wang C Y, et al. Learning deep hierarchical spatial-spectral features for hyperspectral image classification based on residual 3D-2D CNN[J]. Sensors (Basel, Switzerland), 2019, 19(23): E5276.

[25] CholletF. Xception:deep learning with depthwise separable convolutions[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 1800- 1807.

[26] VeitA, WilberM, BelongieS. Residual networks behave like ensembles of relatively shallow networks[EB/OL]. [2020-07-23]. https://arxiv.org/abs/1605.06431.

冯凡, 王双亭, 张津, 王春阳. 基于多特征融合和混合卷积网络的高光谱图像分类[J]. 激光与光电子学进展, 2021, 58(8): 0810010. Fan Feng, Shuangting Wang, Jin Zhang, Chunyang Wang. Hyperspectral Images Classification Based on Multi-Feature Fusion and Hybrid Convolutional Neural Networks[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0810010.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!