激光与光电子学进展, 2023, 60 (16): 1610010, 网络出版: 2023-08-18  

基于超像素分割与卷积神经网络的高光谱图像分类 下载: 559次

Hyperspectral Image Classification Based on Hyperpixel Segmentation and Convolutional Neural Network
作者单位
1 昆明理工大学国土资源工程学院,云南 昆明 650093
2 昆明理工大学计算中心,云南 昆明 650500
摘要
针对卷积神经网络(CNN)在分类高光谱图像时空-谱特征利用率不足和分类效率低的问题,提出基于超像素分割与CNN的高光谱图像分类方法。首先利用主成分分析(PCA)提取图像的前12个成分后对前3个主成分进行滤波,对滤波后的3个波段进行超像素分割;然后将样本点映射到超像素内,使其以超像素而不是像素为基本的分类单元;最后利用CNN进行图像分割。在两个公共的数据集WHU-Hi-Longkou和WHU-Hi-HongHu上进行实验,实验结果表明,相比仅利用光谱信息的方法,融合空-谱特征信息的方法的精度得到提升,在两个数据集上的分类精度分别达99.45%和97.60%。
Abstract
A hyperspectral image classification method based on superpixel segmentation and the convolutional neural network (CNN) is proposed to address the issues of low utilization of spatial-spectral features and low classification efficiency of CNN in hyperspectral image classification. First, the first three principal components were filtered after extracting the first 12 image components utilizing the principal component analysis (PCA), and the three filtered bands were then subjected to superpixel segmentation. Sample points were then mapped within the hyperpixels, enabling it to select superpixels rather than pixels as the basic taxon. Finally, the CNN was used for image segmentation. Experiments on two public datasets, WHU-Hi-Longkou and WHU-Hi-HongHu, show improved accuracy obtained by combining spatial-spectral features compared to using only spectral information, with classification accuracy of 99.45% and 97.60%, respectively.

1 引言

高光谱遥感图像(HSI)因具有涵盖红外光和可见光波长丰富的光谱信息和空间信息1,如今被广泛应用于地质精细识别和分类2、农业精细识别和分类3、生态环境4、城市遥感及**目标检测5-6等重要领域。HSI分类最终目标是为图像中的每个像素分配一个唯一的标识符。

支持向量机(SVM)、K-最近邻(KNN)、随机森林(RF)等分类模型促进了高光谱图像的发展,但它们只对选取样本的光谱特征进行分类。高光谱上百个光谱波段容易导致信息冗余和“同物异谱,异物同谱”等现象,针对此现象,提出数据降维7和数据重建8方法,减少信息冗余并保留有价值的判别信息,以提高图像分类的效率。但仅利用光谱特征进行分类的方法无法获取高精度分类结果。

如今随着深度学习的蓬勃发展,研究者开始将深度学习应用于HSI分类中,例如堆叠自编码器(SAE)9、深度置信网络(DBN)10和卷积神经网络(CNN)11-13等。堆叠自编码器和深度置信网络需要在训练之前将空间信息表示为向量,因此无法有效地提取空间信息。CNN在HSI识别和分类的应用最广泛,以样本中基于补丁的邻域为输入,通过卷积进行特征提取,可以从基于斑块的邻域中提取出空间特征、光谱特征、空间特征和光谱信息联合的深层语义特征,大大提高了HSI分类精度,但空间特征和信息只来自邻域,忽略了邻域外的空间特征和信息。为更好地融合空-谱信息,本文提出超像素这一概念。所谓超像素,是由一系列位置相邻且颜色、亮度、纹理等特征相似的像素点组成的小区域14。Yu等15利用多尺度超像素级(MSP)数据集代替像素级数据并结合SVM进行分类;Tu等16报道了多尺度超像素纹理特征保持与融合的高光谱图像分类方法,通过Gabor滤波器与主成分分析(PCA)融合纹理与光谱信息后采用超像素分割,并采用多数表决的决策融合机制取得最终分类结果。Jijón等17提出由数据重建和超像素引导的高光谱图像的光谱和空间缩减方法,将带状选择和带提取的光谱集成和超像素分割后,将样本映射到超像素并结合SVM进行分割。Zhao等18提出基于自适应多尺度分割的多超像素图学习方法,用于高光谱图像分类,通过对超像素进行不同尺度分割,然后对像素进行融合后再进行分割。陈善学等19提出了一种基于空谱字典的加权联合稀疏表示高光谱图像分类算法。刘金香等20提出融合多维度CNN的高光谱遥感图像分类算法。上述算法利用空谱特征进行提取,分类精度得到很好的提升,同时基于超像素的方法相比基于像素的方法在空间信息选择和空间特征提取上更具有优势。但超像素聚类是基于图像显性的像元聚类方法,对于超像素,分割后均采用机器学习进行分类,不能对高级语义特征进行提取,如今由无人机(UAV)获取高空间分辨率的高光谱遥感图像(简称双高遥感图像,用H2表示),分辨率提高的同时带来了像素的增加,另外上百个波段引发了数据灾难。因此,针对通过有限的样本快速精确地对H2图像进行精细化分类的问题,本文提出基于超像素分割与卷积神经网络的高光谱图像分类方法。

2 研究方法与原理

2.1 主成分分析

主成分分析,也称主分量分析或主成分回归分析,是高光谱常用的一种数据降维方法21。首先利用线性变换,将数据变换到一个新的坐标系中;再利用降维的思想,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(称为第二主成分)上,…。利用这种降维的思想,首先减少了数据集的维数,同时还保留了数据集的对方差贡献最大的特征,最终使数据直观呈现在二维坐标系上,其目的是在“信息”损失较小的前提下,将高维的数据转换到低维,从而减少计算量。具体算法流程如下。

1)假设输入样本集为mD=(x(1),x(2),,x(m)),首先对所有的样本进行中心化,得到

x(i)=x(i)-1mj=1mx(j)

2)然后计算样本的协方差矩阵XXT,从中选取最大的n个特征值对应的特征向量[ω1 ω2ωn],将所有的特征向量标准化后,组成特征矩阵W

3)将样本集中每一个样本x(i)转换为新的样本z(i)=WTxi

4)最终得到降维后样本集D'=(z(1),z(2),,z(m))

2.2 超像素分割

超像素是由一系列位置相邻且颜色、亮度、纹理等特征相似的像素点组成的小区域,在简单图像处理中运用最广泛,几种流行的分割方法为ERS22、Achanta等23提出的SLIC、改进的SLICO算法和MSLIC算法。

SLIC方法将彩色图像转换为CIELAB颜色空间和XY坐标下的5维特征向量,然后对5维特征向量构造距离度量标准,对图像像素进行局部聚类。SLIC方法能生成紧凑近似均匀的超像素,在运算速度、物体轮廓保持、超像素形状方面具有较高的综合评价,得到比较符合人们期望的分割效果,因此运用较广泛。SLIC方法的原理如下。

1)初始化种子点。假设图像共有M个像素点,预分割成K个超像素,那么在图像中均匀地分配K个种子点,每个超像素的大小为Ns

2)优化种子点。计算初始化种子点n1×n1邻域内所有像素点的梯度值,将种子点移到该邻域内梯度最小的地方,为避免大范围内计算梯度值影响效率,取n1=3。其目的是避免种子点落在梯度较大的轮廓边界上,影响后续聚类效果。

3)距离度量。距离包括颜色距离和空间距离,计算公式为

dc=(lj-li)2+(aj-ai)2+(bj-bi)2ds=(xj-xi)2-(yj-yi)2D'=(dcNc)2+(dsNs)2D'=(dcL)2+(dss)2Ns=MK

式中:dc表示颜色距离;ds表示空间距离;Ns是类内最大空间距离;Nc=L为最大颜色距离,取值范围[1,40],取一固定值,一般取10。

SLIC在平滑区域中生成平滑的规则大小的超像素,在纹理区域中生成高度不规则的超像素,相比之下,SLICO在纹理区域和非纹理区域都生成规则形状的超像素。

目前超像素分割24-25已被证明对高光谱的空间信息具有较好的鲁棒性。大多数机器学习对高光谱进行超像素分割时最多只能提取图像的中级语义特征,因此针对此问题,本文将超像素和卷积神经网络融合对高光谱进行分割,能保证从高光谱空间信息中提取到高级语义特征,使分类精度得到提高。

2.3 样本点到超像素的映射

经过PCA和滤波处理,图像中仍包含相同数量像素,样本点亦是。这说明基于像素点进行分类仍然耗时,既然HSI被分割成不同尺度的超像素,那么说明在每个超像素内的像素具有相同的标签,从而将每个超像素作为一个新的样本而不是将每个像素作为一个样本是合理的,因此把每个样本点映射到所在的超像素内。这样做的前提是每个超像素必须在同一个地物内,如此就把具有M个像素的HSI分类转换为N个超像素的分类,在进行HSI分类的同时可以获取图像的空间信息和光谱信息特征。

2.4 卷积神经网络

CNN是一类包含卷积计算且具有深度结构的前馈神经网络(feedforward neural network),是深度学习的代表算法之一,因具有较强的特征自学习能力,被用于图像识别26、图像分类27、目标检测28和语义分割29。CNN主要包含输入层、卷积层、下采样层(池化层)、全连接层和输出层。

1)卷积层。通过卷积运算对输入层的特征进行提取,运算表达式和特征映射的输出表达式分别为

h(x,y)=g(x,y)×w(a,b)=i,jg(x+a,y+b)×w(a,b),xbl=f[aDb(xbl-1kabl)+cbl]

式中:g(x,y)表示图像中像素(x,y)的灰度值;w(a,b)为卷积核,也称为滤波器;xbl表示第l层的第b个特征图;kabl表示第l层的第b个特征映射与第l-1层的第a个特征映射输出之间的卷积核;是卷积符号;cbl是加性偏差;Db是输入的特征映射集;f为激活函数。

2)池化层。池化层主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。常用的池化操作一般包括最大池化、平均池化、随机池化。第l层的第b个特征图的池化计算为

xbl=f[θhlMax(xhl-1)+ebl]

式中:θh分别表示乘法偏差和加性偏差;Max(·)为最大池化。

3)全连接层。通过多个卷积层和池化层的交替连接,全连接层对提取的特征进行进一步降维,最后依据全连接层提取的特征向量输出层输出样本对应的标签。

所提卷积神经网络流程如图1所示,其中卷积层共有5层,前两层采用5×5大小的卷积核,第3到5层则采用3×3大小的卷积核,最后一层采用1×1大小的卷积核,学习率为0.0015,网络中的激活函数均采用ReLU函数。

图 1. 所提卷积神经网络

Fig. 1. Proposed CNN

下载图片 查看所有图片

3 实验数据处理与分析

3.1 实验数据

采用武汉大学RSIDEA研究团队公开共享的无人机高光谱高空间(双高)遥感影像数据集WHU-Hi-Longkou和WHU-Hi-HongHu进行实验。其中WHU-Hi-Longkou数据尺寸为550×400,有270个波段,光谱分辨率和空间分辨率分别为6 nm和0.463 m,包含9个类别(6类农作物),伪彩色与真值图及对应类别名称如图2所示。WHU-Hi-HongHu数据尺寸为940×475,有效波段数270个,光谱分辨率和空间分辨率分别为6 nm和0.043 m,包含22个类别(18类农作物),伪彩色与真值图及对应类别名称如图3所示。

图 2. WHU-Hi-Longkou数据集的伪彩色图像和地物真值图。(a)伪彩色图像;(b)真实图像

Fig. 2. Pseudo-color image and ground object truth map of the WHU-Hi-Longkou dataset. (a) Pseudo-color image; (b) real image

下载图片 查看所有图片

图 3. WHU-Hi-HongHu数据集的伪彩色图像和地物真值图。(a)伪彩色图像;(b)真实图像

Fig. 3. Pseudo-color image and ground object truth map of the WHU-Hi-HongHu dataset. (a) Pseudo-color image; (b) real image

下载图片 查看所有图片

3.2 实验设置

3.2.1 训练数据和精度评定

为降低信息冗余并保留有价值的判别信息,以提高图像分类的效率,针对数据集WHU-Hi-Longkou和WHU-Hi-HongHu,采用PCA选取前12个主成分进行实验分析,分别选取图像的0.1%作为训练样本,剩余的作为测试样本。

采用总体精度(OA)、Kappa系数、逐类别的精度(CA)来评价不同方法的分类性能。

逐类精度的公式为

PCAj=pjjp+j 

总体精度的公式为

POA=k=1npkkp 

Kappa系数的公式为

cKappa=pi=1npii-i=1n(pi+ pi+)p2-i=1n(pi+ pi+)

式中:pjj表示分类结果中第j类和真实分类结果中第j类所占概率;p+j表示真实分类第j类的总和;pkk表示分类结果中第k类和真实分类结果中第k类所占的概率,其中k=1-nn为总分类数;p为样本总量;pi+表示实际观测第i类的总和。

3.2.2 对比方法选取和实验参数设置

选取SVM、KNN、RF和CNN进行对比分析。针对测试集,首先采用270个波段光谱信息对高光谱图像进行分类;其次针对所提出的超像素,分别采用SLICO、SLIC、MSLIC三种算法对其进行分割,对分割后的超像素分割图进行对比分析;最终选取边界贴合度较高的算法结合以上算法对高光谱图像进行分割。

3.2.3 不同分类方法基于像素点分类结果的影响分析

图4图5为基于光谱信息的不同分类方法对WHU-Hi-Longkou和WHU-Hi-HongHu数据集的分类结果。WHU-Hi-Longkou数据集类别较少,分类结果相对较好。由表1可知,不同方法的总体分类精度都在80%以上,其中SVM和CNN分别达到了96.77%和97.18%。相反,WHU-Hi-HongHu数据集类别较多,从图5可以看出,“同物异谱,异物同谱”现象比较明显,分类效果不是很好。表2也说明即使具有最好分类效果的CNN获取的总体精度也才为85.43%,而KNN、SVM和RF分别为63.02%、72.68%和68.26%。因此,在类别较多情况时,仅利用光谱信息的方法不能获取较高的分类精度或容易出现“同物异谱,异物同谱”现象。

图 4. WHU-Hi-Longkou数据集上的光谱信息分割结果。(a)KNN;(b)SVM;(c)RF;(d)CNN;(e)地物真实图

Fig. 4. Spectral information segmentation results on WHU-Hi-Longkou dataset. (a) KNN; (b) SVM; (c) RF; (d) CNN; (e) ground truth

下载图片 查看所有图片

图 5. WHU-Hi-HongHu数据集上的光谱信息分割结果。(a)KNN;(b)SVM;(c)RF;(d)CNN;(e)地物真实图

Fig. 5. Spectral information segmentation results on WHU-Hi-HongHu dataset. (a) KNN; (b) SVM; (c) RF; (d) CNN; (e) ground truth

下载图片 查看所有图片

表 1. 不同算法在WHU-Hi-Longkou数据集上的CA

Table 1. CA of different algorithms on WHU-Hi-Longkou dataset

CategoryKNNSVMRFCNN
Corn94.9398.4188.5398.45
Cotton76.8092.0276.8095.45
Sesame82.9698.2582.2198.70
Round leaf soybean69.0089.6057.1690.83
Long leaf soybean88.3096.0569.8097.91
Rice99.2499.4864.2098.68
Wave99.8799.8892.1899.83
Houses and roads87.8295.3782.3494.58
Mixed weeds85.2896.1374.1897.41
OA /%89.8896.7782.5197.18
Kappa coefficient /%86.9795.7878.0096.31

查看所有表

表 2. 不同算法在WHU-Hi-HongHu数据集上的CA

Table 2. CA of different algorithms on WHU-Hi-HongHu dataset

CategoryKNNSVMRFCNN
Roof84.3776.0278.6792.17
Road81.9783.5683.3978.81
Exposed soil63.1574.4565.5073.66
Cotton49.9067.6462.7587.36
Cotton wood60.2178.7068.0564.24
Rape66.5481.4072.5692.47
Chinese cabbage45.3353.1046.3449.05
Pakchoi38.8039.5620.9358.84
Cabbage88.3889.1884.8188.28
Mustard tuber38.7047.2040.4766.60
Cauliflower31.9040.2230.3660.92
Green vegetables56.9554.8154.3361.74
Small green vegetables45.5649.1252.0471.80
Asparagus lettuce61.5456.8244.3350.75
Lettuce87.3080.4273.9182.85
Film is covered with lettuce76.6769.8580.1482.85
Thin film covered with lettuce78.5377.8270.3075.83
Carrot68.3773.4068.3184.24
Ternip68.6875.5671.6679.01
Garlic bolt77.1380.3676.2076.94
Bean71.1871.1076.6889.47
Persimmon tree64.0277.3474.4787.46
OA /%63.0272.6868.2685.43
Kappa coefficient /%56.7867.0462.0282.10

查看所有表

3.2.4 不同方法融合空-谱特征分类结果的影响分析

图6图7是不同超像素分割算法对WHU-Hi-Longkou和WHU-Hi-HongHu数据集的分割效果。SLICO算法在未降维和降维后均能够获取均匀的超像素区域,但是由局部图看出,边界不能很好贴合,容易出现将相邻类分割在同一超像素内的情况;SLIC算法分割后的超像素虽然不是均匀的超像素区域,但是通过局部图可以发现边界可以较好贴合;MSLIC算法从WHU-Hi-Longkou数据集可获取均匀的超像素,不能从WHU-Hi-HongHu数据集得到均匀的超像素。综上所述,采用SLIC算法进行超像素分割。

图 6. 不同超像素算法对WHU-Hi-Longkou数据集的分割结果。(a)SLICO;(b)PCA-SLICO;(c)SLIC;(d)PCA-SLIC;(e)MSLIC;(f)PCA-MSLIC

Fig. 6. Segmentation results of different hyperpixel algorithms on WHU-Hi-Longkou dataset. (a) SLICO; (b) PCA-SLICO; (c) SLIC; (d) PCA-SLIC; (e) MSLIC; (f) PCA-MSLIC

下载图片 查看所有图片

图 7. 不同超像素算法对WHU-Hi-HongHu数据集的分割结果。(a)SLICO;(b)PCA-SLICO;(c)SLIC;(d)PCA-SLIC;(e)MSLIC;(f)PCA-MSLIC

Fig. 7. Segmentation results of different hyperpixel algorithms on WHU-Hi-HongHu dataset. (a) SLICO; (b) PCA-SLICO; (c) SLIC; (d) PCA-SLIC; (e) MSLIC; (f) PCA-MSLIC

下载图片 查看所有图片

图8对比图4图9对比图5,相比于光谱信息,高光谱图像融合空-谱特征后分类效果得到明显提升。对比表3表1表4表2,相较于仅基于光谱信息的KNN、SVM、RF和CNN,融合空-谱特征信息的PMS-KNN、PMS-SVM、PMS-RF和PMS-CNN的总体精度在WHU-Hi-Longkou数据集上分别提高了2.88个百分点、1.03个百分点、6.84个百分点和2.27个百分点,在WHU-Hi-HongHu数据集上分别提高了25.95个百分点、10.22个百分点、18.58个百分点和12.17个百分点,其中PMS表示融合PAC、多尺度卷积神经网络结构和SLICO的方法。融合超像素和卷积神经网络的方法对WHU-Hi-Longkou数据集每一类农作物的分类精度更是达到了99%以上,而对WHU-Hi-HongHu数据集每一类农作物的分类精度也都保持在92%以上。因此,融合空-谱特征的方法能够更好地提高对图像的分类精度。

图 8. 不同方法对WHU-Hi-Longkou数据集的分类结果。(a)PMS-KNN;(b)PMS-SVM;(c)PMS-RF(d)PMS-CNN;(e)真值图

Fig. 8. Classification results of different methods on WHU-Hi-Longkou dataset. (a) PMS-KNN; (b) PMS-SVM; (c) PMS-RF;(d) PMS-CNN; (e) grouth truth

下载图片 查看所有图片

图 9. 不同方法对WHU-Hi-HongHu数据集的分类结果。(a)PMS-KNN;(b)PMS-SVM;(c)PMS-RF;(d)PMS-CNN;(e)真值图

Fig. 9. Classification results of different methods on WHU-Hi-Longkou dataset. (a) PMS-KNN; (b) PMS-SVM; (c) PMS-RF;(d) PMS-CNN; (e) grouth truth

下载图片 查看所有图片

表 3. WHU-Hi-Longkou数据集中的CA

Table 3. CA on WHU-Hi-Longkou dataset

CategoryPMS-KNNPMS-SVMPMS-RFPMS-CNN
Corn97.7499.6494.3799.85
Cotton83.5396.0366.1599.94
Sesame89.9098.0683.0398.35
Round leaf soybean76.5792.5270.8899.08
Long leaf soybean93.8497.0276.1099.15
Rice99.629.54099.0899.67
Wave99.8899.8799.8599.72
Houses and roads91.1594.7588.0495.36
Mixed weeds86.4197.6481.5097.61
OA /%92.7697.8089.3599.45
Kappa coefficient /%90.6397.1086.3099.27

查看所有表

表 4. WHU-Hi-HongHu数据集中的CA

Table 4. CA on WHU-Hi-HongHu dataset

CategoryPMS-KNNPMS-SVMPMS-RFPMS-CNN
Roof95.6280.3393.5898.38
Road94.6083.6787.6294.02
Exposed soil87.3691.3686.1396.33
Cotton87.5484.4682.0098.10
Cotton wood92.3484.3991.1899.45
Rape87.9987.7986.4096.57
Chinese cabbage74.9465.2672.0892.17
Pakchoi86.6017.6077.2099.95
Cabbage96.2891.7794.7397.60
Mustard tuber73.4366.8676.9396.85
Cauliflower78.0459.0087.9895.36
Green vegetables86.7856.7585.8496.27
Small green vegetables74.9673.1676.1497.06
Asparagus lettuce86.9064.8087.9897.22
Lettuce94.6667.8099.00100
Film is covered with lettuce94.9585.5886.5599.10
Thin film covered with lettuce95.2060.4096.84100
Carrot94.4278.5495.6499.40
Ternip87.0481.5486.5195.24
Garlic bolt97.4480.7096.7398.58
Bean99.70099.7099.70
Persimmon tree95.8576.8699.2399.24
OA /%88.9782.9086.8497.60
Kappa coefficient /%86.3078.6783.8097.07

查看所有表

4 结论

提出一种基于超像素分割与卷积神经网络的高光谱图像分类方法。首先针对270个波段,采用PCA进行降维,获取前12个主成分并对前3个主成分进行滤波;然后采用SLIC算法对滤波后的前3个主成分进行分割;接着将样本点映射到分割后的超像素内,从而将光谱信息和空间信息有效结合;最终利用卷积神经网络对高光谱遥感影像进行分割。针对高光谱图像分割,主要贡献为:1)针对高光谱上百个波段容易出现信息冗余和“同物异谱,异物同谱”等现象,采用PCA获取前12个主成分,降低信息冗余并保留有价值的判别信息,以提高图像分类的效率;2)为更好利用高光谱的空间信息,对前3个主成分进行滤波后采用SLIC算法进行超像素分割;3)将样本点映射到超像素内,以超像素而不是像素为基本的分类单元。这显著减小了HSI的尺寸,以卷积神经网络为基础,能够提取图像的高级语义特征,大大提高对图像的分类精度。

参考文献

[1] 童庆禧, 张兵, 张立福. 中国高光谱遥感的前沿进展[J]. 遥感学报, 2016, 20(5): 689-707.

    Tong Q X, Zhang B, Zhang L F. Current progress of hyperspectral remote sensing in China[J]. Journal of Remote Sensing, 2016, 20(5): 689-707.

[2] Galdames F J, Perez C A, Estévez P A, et al. Rock lithological instance classification by hyperspectral images using dimensionality reduction and deep learning[J]. Chemometrics and Intelligent Laboratory Systems, 2022, 224: 104538.

[3] 梁雪剑, 张晔, 张钧萍. 高光谱图像相对含水量反演引导的精细分类[J]. 遥感学报, 2021, 25(11): 2283-2302.

    Liang X J, Zhang Y, Zhang J P. Relative water content retrieval and refined classification of hyperspectral images based on a symbiotic neural network[J]. National Remote Sensing Bulletin, 2021, 25(11): 2283-2302.

[4] Lü L L, Song K S, Wen Z D, et al. Estimation of the lake trophic state index (TSI) using hyperspectral remote sensing in Northeast China[J]. Optics Express, 2022, 30(7): 10329-10345.

[5] Gakhar S, Chandra T K. Spectral-spatial urban target detection for hyperspectral remote sensing data using artificial neural network[J]. The Egyptian Journal of Remote Sensing and Space Science, 2021, 24(2): 173-180.

[6] Guo T, Luo F L, Fang L Y, et al. Meta-pixel-driven embeddable discriminative target and background dictionary pair learning for hyperspectral target detection[J]. Remote Sensing, 2022, 14(3): 481.

[7] Bruce L M, Koger C H, Jiang L. Dimensionality reduction of hyperspectral data using discrete wavelet transform feature extraction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2002, 40(10): 2331-2338.

[8] Gao Q S, Xie F D, Huang D, et al. Spectral and spatial reduction of hyperspectral image guided by data reconstruction and superpixels[J]. Engineering Applications of Artificial Intelligence, 2022, 111: 104803.

[9] Fu Q Y, Yu X C, Wei X P, et al. Semi-supervised classification of hyperspectral imagery based on stacked autoencoders[J]. Proceedings of SPIE, 2016, 10033: 100332B.

[10] Chen C, Ma Y, Ren G B. Hyperspectral classification using deep belief networks based on conjugate gradient update and pixel-centric spectral block features[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 4060-4069.

[11] Roy S K, Krishna G, Dubey S R, et al. HybridSN: exploring 3-D-2-D CNN feature hierarchy for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(2): 277-281.

[12] Qu S M, Li X, Gan Z H. A new hyperspectral image classification method based on spatial-spectral features[J]. Scientific Reports, 2022, 12: 1541.

[13] 张祥东, 王腾军, 朱劭俊, 等. 基于扩张卷积注意力神经网络的高光谱图像分类[J]. 光学学报, 2021, 41(3): 0310001.

    Zhang X D, Wang T J, Zhu S J, et al. Hyperspectral image classification based on dilated convolutional attention neural network[J]. Acta Optica Sinica, 2021, 41(3): 0310001.

[14] Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.

[15] Yu H Y, Gao L R, Liao W Z, et al. Multiscale superpixel-level subspace-based support vector machines for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(11): 2142-2146.

[16] Tu B, Zhou C L, Liao X L, et al. Spectral-spatial hyperspectral classification via structural-kernel collaborative representation[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(5): 861-865.

[17] Jijón Palma M E, Lima Machado A M, Silva Centeno J A. Dimensionality reduction based on binary encoding for hyperspectral data[J]. International Journal of Remote Sensing, 2019, 40(9): 3401-3420.

[18] Zhao C H, Qin B A, Feng S, et al. Multiple superpixel graphs learning based on adaptive multiscale segmentation for hyperspectral image classification[J]. Remote Sensing, 2022, 14(3): 681.

[19] 陈善学, 何宇峰. 基于空谱字典的加权联合稀疏表示高光谱图像分类[J]. 光学学报, 2023, 43(1): 0110002.

    Chen S X, He Y F. Weighted joint sparse representation hyperspectral image classification based on spatial-spectral dictionary[J]. Acta Optica Sinica, 2023, 43(1): 0110002.

[20] 刘金香, 班伟, 陈宇, 等. 融合多维度CNN的高光谱遥感图像分类算法[J]. 中国激光, 2021, 48(16): 1610003.

    Liu J X, Ban W, Chen Y, et al. Multi-dimensional CNN fused algorithm for hyperspectral remote sensing image classification[J]. Chinese Journal of Lasers, 2021, 48(16): 1610003.

[21] 韩嫚莉, 侯卫民, 孙靖国, 等. 基于PCA与协同表示的高光谱图像分类研究[J]. 电子科技大学学报, 2019, 48(1): 117-121.

    Han M L, Hou W M, Sun J G, et al. Hyperspectral image classification algorithm based on PCA and collaborative representation[J]. Journal of University of Electronic Science and Technology of China, 2019, 48(1): 117-121.

[22] 张志龙, 李爱华, 李楚为. 基于密度峰值搜索聚类的超像素分割算法[J]. 计算机学报, 2020, 43(1): 1-15.

    Zhang Z L, Li A H, Li C W. Superpixel segmentation based on clustering by finding density peaks[J]. Chinese Journal of Computers, 2020, 43(1): 1-15.

[23] Achanta R, Shaji A, ASmith K, et al. SLIC Superpixels compared to state of the art superpixel methods[J]. IEE Transactions Pattern Analysis & Machine Intellingence, 2012, 347(11): 2274-2282.

[24] Li H, Feng R Y, Wang L Z, et al. Superpixel-based reweighted low-rank and total variation sparse unmixing for hyperspectral remote sensing imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(1): 629-647.

[25] Yu H Y, Xu Z, Wang Yu L, et al. The use of KPCA over subspaces for cross-scale superpixel based hyperspectral image classification[J]. Remote Sensing Letters, 2021, 12(5): 470-477.

[26] Sang H T, Xiang L, Chen S F, et al. Image recognition based on multiscale pooling deep convolution neural networks[J]. Complexity, 2020, 2020: 6180317.

[27] Li D M, Deng L B, Cai Z M. Research on image classification method based on convolutional neural network[J]. Neural Computing and Applications, 2021, 33(8): 8175-8167.

[28] 余东行, 郭海涛, 张保明, 等. 级联卷积神经网络的遥感影像飞机目标检测[J]. 测绘学报, 2019, 48(8): 1046-1058.

    Yu D H, Guo H T, Zhang B M, et al. Aircraft detection in remote sensing images using cascade convolutional neural networks[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(8): 1046-1058.

[29] Shan J C, Li X Z, Jia S M, et al. Semantic segmentation based on deep convolution neural network[J]. Journal of Physics Conference Series, 2018, 1069(1): 012169.

陈如俊, 普运伟, 吴锋振, 刘昱岑, 李奇. 基于超像素分割与卷积神经网络的高光谱图像分类[J]. 激光与光电子学进展, 2023, 60(16): 1610010. Rujun Chen, Yunwei Pu, Fengzhen Wu, Yuceng Liu, Qi Li. Hyperspectral Image Classification Based on Hyperpixel Segmentation and Convolutional Neural Network[J]. Laser & Optoelectronics Progress, 2023, 60(16): 1610010.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!