激光与光电子学进展, 2019, 56 (3): 031003, 网络出版: 2019-07-31   

PFWG改进的CNN多光谱遥感图像分类 下载: 1186次

PFWG Improved CNN Multispectra Remote Sensing Image Classification
作者单位
西安建筑科技大学信息与控制工程学院, 陕西 西安 710055
摘要
为了实现在遥感图像处理过程中准确地提取到有效地物信息,缩短分类用时,将卷积神经网络(CNN)模型引入遥感图像地物分类,首先提出由图片模糊加权平均(PFWG)改进的CNN分类方法,利用模糊几何聚类算法作为预处理单元对实验样本进行特征规划,并对遥感地物信息进行多源特征决策,简化了分类过程,加快了CNN模型的收敛速度。实验结果表明,利用PFWG改进的CNN分类方法总体分类精度达到了93.73%;Kappa系数为0.94。该方法有效地弥补了CNN自身对遥感图像分类不够细腻、表达效果差的缺点,较好地完成了多光谱遥感图像分类任务,同时具备一定抗干扰能力。
Abstract
In order to accurately achieve the effective ground information in the process of remote sensing image processing and shorten the classification time, the convolutional neural networks (CNN) model is introduced into the classification of remote sensing image features. First, the picture fuzzy weighted average (PFWG) improved CNN classification method is proposed. The fuzzy geometric clustering algorithm is used as a pre-processing unit to characterize the experimental samples, and for multi-source feature decision-making for remote sensing ground information. The classification process is simplified and the convergence of the CNN model is speeded up. The experimental results show that using PFWG improved CNN classification method, the overall classification accuracy reaches 93.73%, and the Kappa coefficient is 0.94. This method effectively compensates for the shortcoming of CNN itself which is not good enough for classification and has poor expression performance of remote sensing images. It has successfully completed an efficient classification task and has a certain anti-jamming capability.

1 引言

遥感图像分类本质是通过不同地物类型的电磁波辐射差异来判别地物的基本属性,进而使用模式识别的方法来进行属性特征分类。遥感图像分类是根据分类方法在遥感空间划分出不同类型的特征区域,并确定待分类的像素落入特征类型地物的相应区域。实质上,该过程是将图像中的每个区域或像素点分类为多个特征因素中的一种,或者是若干个特征之一,从而完成图像数据从遥感空间到目标模式空间的转换[1]

如何对内容丰富的遥感图像进行准确的分类提取一直是遥感图像分类的研究热点。王振武等[2]客观地分析了关于基于支持向量机的遥感图像分类方法的优劣,从侧面对比说明了每类方法的适用场景,极大地推广了分类方法的应用,具有较好的泛化能力;Banerjee等[3]提出了基于模糊聚类的遥感图像无监督分类方法,能够较为准确地提取到图像的有效特征,但在处理包含大量地物信息的多光谱遥感图像时,时耗较长,无法做到高效识别提取;卜晓波等[4]通过遗传算法改进反向传播(BP)神经网络,一定程度克服了网络缺陷,提高了运行速率,但在处理纹理特征时,分类精度不高;赵爽等[5]总结了常用分类方法在处理遥感图像上的优缺点,对比BP神经网络和支持向量机,验证了卷积神经网络(CNN)在分类精度和运算速率等方面对遥感图像进行分类所具备的优势,但由于网络性质的局限性,分类线条不够细腻,表达效果不理想。

本文将直觉模糊集作为神经网络的预处理单元与卷积神经网络进行结合,通过图片模糊加权平均(PFWG)算子优先对样本特征进行了整合,进而避免了CNN对局部特征处理不够细腻的缺点,增强了算法的泛化能力,提高了分类精度。文中给出了陕西汉中地区遥感图像分类的实验结果,相较先前的算法取得了较好的分类效果。

2 卷积神经网络

CNN作为深度学习中的典型模型,是具有多层结构的学习算法。CNN是对BP神经网络的一种改进,采用前向传播计算输出值,反向传播调整权重和偏置,包含由卷积层和池化层构成的特征抽取器[6],如图1所示。

图 1. CNN示意图

Fig. 1. Schematic of CNN

下载图片 查看所有图片

CNN主要通过分类算法来实现,训练算法的目的是在前向传播阶段完成对输入遥感图像信息属性特征的分类采集和提取,在后向传播阶段利用反馈网络完成误差更新[7]

CNN训练算法分为前向传播和后向传播两个阶段完成。前向传播阶段:

1) 选取样本(X,Yp)数据读入网络结构。

2) 输出对应的实际值Op

前向传播阶段是实现信号在不同网络层级的传输,训练过程完成输入样本信息在网络中的逐级变换,最终得到样本对应的实际值,公式为

Op=FnF2[F1(XpW1)W2]Wn}(1)

后向根据输出信号与真实值的误差来进行反馈更新,根据计算出的误差值逐层地改变相应各层网络的相应权值,通过调整权值偏置量来进行误差更新[8]

每个训练样本(X,Yp)都有一个损失函数与之对应,fW,b(x)可以计算出前向传播的输出值,W代表权重值,b代表偏置值, 损失函数为

J(W,b;xi,yi)=12fW,b(xi)-yi2,(2)

其主要是通过梯度下降不断减小Wb,梯度下降在每次迭代过程中更新参数Wb。虽然不是每次迭代更新都是朝最优解靠近,但总体精度确实不断最优化,α表示控制这个范围的学习率。

ΔWijl=αWijlJ(W,b),(3)Δbjl=αWijlJ(W,b),(4)

权值和偏置的变化量为

Δbjl=αδj,(5)ΔWijl=αxijδj,(6)

Wb都通过以下公式更新,即

Wijl=ΔWijl+Wijl,(7)bji=Δbji+bji(8)

CNN使用空间关系来减少需要学习的参数数量,在训练结束后,得到较为稳定的网络结构分类器。训练过程无需重复初始化,具有一定记忆能力。

CNN模型较好地满足了最小化数据的预处理要求,图像的局部信息能够在网络结构中通过特征分类器提取,做到快速筛选,通过图像的局部感受区域允许处理单访问传入的基础特征,极大地简化了神经网络的网络结构,具有更好的泛化能力及适应性[9]。CNN模型也存在很大改进空间,网络层数、卷积核数量与大小都对网络模型的训练过程和分类识别效果有较大影响,同时卷积层中的特征还包含丰富的信息,例如局部描述信息等,在遥感图像分类中很少对此类信息进行有效分析,本文通过引入含PFWG算子的模糊几何聚类算法,实现了CNN对特征信息以及地物属性的优化,体现了较好的分类效果。

3 模糊几何聚类算法

3.1 直觉模糊集

假设一个集合X={x1,x2,x3,…,xn},X的直觉模糊集XIFS可以表示为

XIFS=(x,μIFS(x),vIFS(x),πIFS(x))xX,(9)

式中0≤μIFS(x)≤1,0≤vIFS(x)≤1,μIFS表示X的隶属度,νIFS表示X的非隶属度,并且0≤μIFS(x)+vIFS(x)≤1。同时让πIFS(x)=1-μIFS(x)-vIFS(x),表示X的犹豫度。

隶属度和非隶属度的构建是直觉模糊图像处理过程中的关键环节,本文将隶属度函数的构建方法作为一个优化问题,同时设计犹豫度函数,通过最大信息熵来确定参数并构建直觉模糊集[10]。为此本文构建直觉模糊图像作为地物类型的样本。

把大小为M×N,灰度级为R的样本图像L看成M×N个单元的集合,假设y为图像的每个元素,μL(y)是元素y属于图像L的程度,表达式为

μL[L(i,j)]=y-yminymax-ymin,(10)

式中ymaxymin表示图像L的最大值和最小值。对应的隶属度图像μIFS,非隶属度图像vIFS,犹豫度图像πIFS可定义为

μIFS[L(i,j);λ]=1-{1-μIL(i,j)]}λ,λ0,(11)vIFS[L(i,j);λ]=[1-μIL(i,j)]λ(λ+1),λ0,(12)πIFS[L(i,j);λ]=1-μIFS[L(i,j);λ]-vIFS[L(i,j);λ],λ0,(13)

式中λ通过最大化熵来确定,定义式为

Ent(IFS;λ)=1M×Ni=0M-1j=0N-12μIFS[L(i,j);λ]vIFS[L(i,j);λ]+πIFS2[L(i,j);λ]μIFS2[L(i,j);λ]+vIFS2[L(i,j);λ]+π2IFS[L(i,j);λ](14)

直觉模糊处理后可分别得到相关隶属度图像、非隶属度图像和犹豫度图像,本次实验选择隶属度图像作为实验地物遥感样本进行后续处理。

3.2 基于模糊几何聚类的多重决策方法

pi(i=1,2,…,n)是图片模糊集[11],则定义Picture模糊几何聚集算子为

wPFWG(p1,p2,,pn)=i=1npiwi,(15)

式中wi是对应pi的权值,并有wi>0, i=1nwi=1。

这里的权值代表的是图像属性的权重,相对于对偶犹豫模糊集下提出的加权几何算子或混合几何算子[12],PFWG算子通过平均的思想建立了属性值之间的联系,在体现个体属性差别的同时反映权值的隶属度强弱,体现了其在实际中对不同互联、重叠区域进行处理的优越性。

通过引入Picture模糊几何聚集算子进而提出基于特征值为模糊数的多属性决策方法改进CNN。根据模糊几何聚集算子的相似性质进行细化分析,假设N= N1,N2,,Nm是所有地物类型的样本空间,G={G1,G2,…,Gn}代表属性集。为了确定样本Ni在属性指标Gj之下的权重,应当评估出各个样本在Gj下的平均水平,用Picture模糊元pij表示,将这些平均值放在评估矩阵中P= (pij)m×n中,其中pij是Picture模糊数。

评估矩阵P中的Picture模糊信息通过PFWG模糊算子进行采集,

pi=PFWGw(pi1,pi2,,pin)=j=1npijwj,(16)

式中w= (w1,w2,w3,,wn)Tpj(j=1,2,3,…,n)对应的权重向量,且wj>0, j=1nwj=1。通过纹理、亮暗以及颜色信息等对样本进行评估,得到各个样本Ni的综合评估值 p~i(i=1,2,3,…,m)。

p=(μp,σp,ηp,τp),定义函数S(p)pp,精度函数E定义为

E(p)=μp+ηp+σp,(17)

式中S(p)∈[-1,1],E(p)∈[0,1]。对于不同的模糊数pi只需比较S(pi)就可得到对于不同属性下的样本特性。

最后计算得到样本的总权值S( p~i)(i=1,2,3,…,m),把各个样本按照不同属性对应的S( p~i)总权值从高到低排列,并选择权值最高的一项作为此样本的标记属性[13],相对克服了直觉模糊集存在的不足,提高了算法的稳健性。

本次实验通过Picture模糊数来反映样本信息,利用模糊几何聚类算法控制CNN的输入层权重,通过直觉模糊集与最大熵特性细化输入CNN网络层样本信息,保证样本完整性的同时通过PFWG算子控制特征梯度,使Picture模糊集可以挖掘出更多的实验区信息,弥补了CNN分类不够细腻的缺点。

4 实验结果分析

4.1 研究区概况

实验选用的图像数据为汉中市2017年的城市遥感图像,该图像由运8-C和运8试飞微软UCXP拍摄,图像分辨率为40 cm,所获得遥感图像的比例尺为1∶5000,图像的波段范围为380~780 nm。研究区影像如图2所示,包括城市水体、绿地、道路以及建筑群等。

图 2. 研究区影像。(a)研究区1;(b)研究区2

Fig. 2. Research area image. (a) Study area 1; (b) study area 2

下载图片 查看所有图片

4.2 遥感图像预处理

本文以ENVI软件为平台,在个人PC下Matlab R2014a操作完成。操作系统为Window 8, CPU为InterCORE i5,内存为4 GB。

实验通过辐射校正,最小噪声分离(MNF)[14]等方法对陕西汉中市土地调查下发的遥感影像进行预处理,放大了实验样本的属性特征,细化了图像的纹理轮廓,相对缩小了训练区范围,有助于进一步提高分类模型对遥感图像的解译能力。

实验首先对实验区进辐射校正,以研究区1为实验样本。辐射校正的目的是消除环境因素的影响,通过对实验区波段进行处理,得到较为均衡的地表反射数据,进而减小实验误差。本次实验采用跨轨道光照法和内部相对平均(IAR)反射率校正结合的方式[15],实验结果如图3和4所示。

图 3. 跨轨道光照辐射校正示意图

Fig. 3. Cross-track illumination radiation correction diagram

下载图片 查看所有图片

图 4. 辐射校正示意图

Fig. 4. Radiation correction diagram

下载图片 查看所有图片

在得到校正结果后,对图像进行MNF,MNF是通过两次层叠的主成分变换克服噪声对影像质量的影响。1) 通过高斯滤波模块对影像数据块进行滤波处理,得到噪音协方差矩阵,用于分离和调节特征中可能含有的噪声;2) 对噪声数据进行标准的主成分分析变换,通过在噪声中引入单位方差可以做到对白噪声部分的有效分离,波段间的不相关性使MNF较主成分分析法(PCA)等更加优越[16]。对实验区进行MNF变换的结果如图5图6所示。

遥感图像成像需要信号在远距离传输过程中保证地表辐射值真实可靠,但地表辐射信号在信息传递过程中会有一定程度的削弱,辐射信号在环境因素的干扰下在被遥感器接收时会存在实验误差。预处理操作的目的是为了降低噪声干扰,减少误差,保证真实地物信息的有效传递[17]

4.3 分类结果

本次实验区域属于城市地区,以城市建筑群、裸地、水体及绿地为主要研究目标。道路在实验区所占像素比例较低,不利于提取,因此a作为干扰因素在本次实验中不列为被识别的地物类型。本次实验区的地物类型及其影像特征如表1所示。

图 5. MNF结果图

Fig. 5. MNF result graph

下载图片 查看所有图片

图7为研究区1在BP神经网络下的地物分类结果图。表2为其对应混淆矩阵,在对城市水体及建筑区进行分类时体现了较高的分类提取效果。

图 6. MNF示意图

Fig. 6. Diagram of MNF

下载图片 查看所有图片

图8为研究区1在CNN下的地物分类结果图。表3为其对应混淆矩阵,CNN在对地物局部区域细节信息进行提取时,体现了较好的分类效果。

表 1. 实验区土地覆盖类型及特征解译

Table 1. Land cover classification system and interpretation marks in the study area

ImageFeature typeImage characteristic
BuildingBuildings are arranged neatly and there are roads passing through.The colors are gray and dark gray.
WaterUniform texture, smooth borders, blue-green or dark blue.
Green areaBlocky distribution, the color characteristics are more obvious, dark green, light blue.
NudationTexture shows a pattern, there are roads through, the color is purple, gray purple.

查看所有表

表 2. BP神经网络分类结果混淆矩阵

Table 2. BP neural network classification result confusion matrix%

ClassificationBuildingNudationWaterGreenbeltAggregate
Building91.4419.736.073.4730.1
Nudation8.5680.270022.1
Water0093.93023.3
Greenbelt00096.5324.5
Aggregate100100100100100

查看所有表

图9为研究区1在 PFWG改进CNN分类CNN下的地物分类结果图。表4为其对应混淆矩阵,算法能够对图像局部细节进行高效识别区分,同时保证了地物特征信息的准确采集,图像呈现效果最优。

混淆矩阵在此用于表示被分为某一地物类型的像元数量与地面检测为该地物类型数量的比例矩阵[18]。混淆矩阵为一种特定的可视化效果,反映算法性能,矩阵中的列代表地物类型的实际分类,数值等于被正确实现分类的实际像元的数量。

图9为根据PFWG改进的CNN分类图,图像在对中西部建筑群的分类效果明显较好,在对东南地区的建筑群受裸地影响分类稍差。原因可能是试验区中建筑群与裸地具有高度相似性,并且存在一定区域的重叠交叉,一定程度上影响了分类效果。线型建筑因为与部分道路紧密相连,分类效果一般,但对比BP神经网络和CNN都有明显改善。水体类型分类精度较高,对中部的城市内湖以及多处零散水体都能够有效识别,同时对城市绿地也能做到准确识别,识别率较高。

图 7. BP神经网络分类结果图

Fig. 7. BP neural network classification result graph

下载图片 查看所有图片

图 8. CNN分类结果图

Fig. 8. CNN classification result graph

下载图片 查看所有图片

表 3. CNN分类结果混淆矩阵

Table 3. CNN classification result confusion matrix%

ClassificationBuildingNudationWaterGreenbeltAggregate
Building93.1217.852.940.7128.6
Nudation6.8882.150022.2
Water0097.06024.2
Greenbelt00099.2925.0
Aggregate100100100100100

查看所有表

图 9. PFWG改进CNN分类结果图

Fig. 9. PFWG improved CNN classification result graph

下载图片 查看所有图片

表 4. PFWG改进CNN分类结果混淆矩阵

Table 4. PFWG improved CNN classification result confusion matrix%

ClassificationBuildingNudationWaterGreenbeltAggregate
Building96.6315.480.82028.3
Nudation3.3784.520021.9
Water0099.18024.8
Greenbelt00010025.0
Aggregate100100100100100

查看所有表

图10(a)~(c)分别是对研究区2进行BP神经网络分类、CNN分类以及PFWG改进的CNN分类的结果。在对地物类型有较大差别的遥感图像进行分类提取时,BP神经网络和CNN对图像东部建筑分类效果较好,对西部建筑分类效果稍差,而PFWG改进的CNN对两种不同类型的建筑群体都能进行有效识别,并且在图像西部如图10矩形所示部分,对水体类型与裸地等交界重叠区域能够进行有效划分,分类精度较好,线条定位比较准确,较前两种算法展示出更优的地物识别效果。

图 10. 分类结果对比图。 (a) BP神经网络分类结果;(b) CNN分类结果;(c) PFWG改进的CNN分类结果

Fig. 10. Classification result comparison graph. (a) BP neural network classification result; (b) CNN classification result; (c) PFWG improved CNN classification result

下载图片 查看所有图片

4.4 精度评价

总体分类精度是一种常用的分类精度评价指标[19],其值为被正确分类的像元总和除以实验区总像元数。混淆矩阵中的对角线数值即为被正确分类的像元总数,总像元数等于真实实验区的像元总数。

Kappa系数也是一种较为成熟的遥感分类精度评价方法[20],定义为

K=po-pe1-pe,(18)

式中po是实际参考的像元总数乘以混淆矩阵对角线的和,pe是各类中实际参考像元总数与该类中被分类像元总数之积对所有类型求和,Kappa系数高于0.8都被认为是较好的分类结果。

分类最终结果如表5所示,运用BP神经网络分类时,分类效果较好,总体精度达到91.63%,但分类速度较慢,对局部区域也没有做出有效区分;CNN在处理大量实验数据时极大地提高了分类速度,同时也具备较高的分类精度,总体精度为92.82%;在结合PFWG改进的CNN分类时,总体精度为 93.73%,在分类速度上也继承了CNN的优越性,Kappa系数为0.94。

结果表明,利用PFWG改进的CNN的分类结果精度较高,模糊几何算子对样本特征进行梯度优化,使CNN在处理大量样本局部特征时用时较短,并且得到较为细腻的遥感纹理轮廓信息,直觉模糊集通过构建隶属度函数图像保证了实验样本信息的完整性,一定程度上节约了分类用时,使改进算法能够高效地完成多光谱遥感图像的分类任务。

表 5. 分类精度评价矩阵

Table 5. Classification accuracy evaluation matrix

ParameterBP neural networkConvolutional neural networkImproved algorithm
Kappa coefficient0.880.900.94
Classification speed /min2574
Overall accuracy /%91.6392.8293.73

查看所有表

5 结论

通过模糊几何聚类算法对CNN进行改进,降低了分类过程中环境因素的影响,直觉模糊集对样本特征优化能更全面地把握地物信息,保证局部信息的完整性,同时PFWG算法加强了地物样本的物理特性,弥补了CNN的不足,兼具良好的抗噪能力,有效地保障了分类精度。实验结果表明,PFWG改进的CNN可以大幅缩短多光谱遥感图像的训练时长,其中所有的参数信息在迭代更新的过程中使损失函数降到最小,从而实现总体分类精度的提高,做到精确提取地物特征信息,模糊集处理降低了算法的运行复杂度,缩短了提取用时,具有较高的使用价值。

参考文献

[1] 邹瑞雪. 基于多特征的面向对象高分辨率遥感图像分类[D]. 成都: 电子科技大学, 2017: 17- 25.

    Zou RX. Object-oriented high spatial resolution remote sensing image classification using multi-feature[D]. Chengdu: University of Electronic Science and Technology of China, 2017: 17- 25.

[2] 王振武, 孙佳骏, 于忠义, 等. 基于支持向量机的遥感图像分类研究综述[J]. 计算机科学, 2016, 43(9): 11-17, 31.

    Wang Z W, Sun J J, Yu Z Y, et al. Review of remote sensing image classification based on support vector machine[J]. Computer Science, 2016, 43(9): 11-17, 31.

[3] BanerjeeB, Krishna Moohan B. A novel graph based fuzzy clustering technique for unsupervised classification of remote sensing images[J]. ISPRS Annals of Photogrammetry, RemoteSensing and Spatial InformationSciences, 2014, II-8: 165- 170.

[4] 卜晓波, 龚珍, 黎华. 基于遗传算法改进BP神经网络的遥感影像分类研究[J]. 安徽农业科学, 2013, 41(33): 13056-13058, 13079.

    Bu X B, Gong Z, Li H. Remote sensing image classification of improved BP neural network based on the genetic algorithm[J]. Journal of Anhui Agricultural Sciences, 2013, 41(33): 13056-13058,13079.

[5] 赵爽. 基于卷积神经网络的遥感图像分类方法研究[D]. 北京: 中国地质大学, 2015: 14- 27.

    ZhaoS. Remote sensing image classification method based on convolutional neural networks[D]. Beijing: China University of Geosciences, 2015: 14- 27.

[6] 付秀丽, 黎玲萍, 毛克彪, 等. 基于卷积神经网络模型的遥感图像分类[J]. 高技术通讯, 2017( 3): 203- 212.

    Fu XL, Li LP, Mao KB, et al. Remote sensing image classification based on CNN model[J]. Chinese High Technology Letters, 2017( 3): 203- 212.

[7] 刘大伟, 韩玲, 韩晓勇. 基于深度学习的高分辨率遥感影像分类研究[J]. 光学学报, 2016, 36(4): 0428001.

    Liu D W, Han L, Han X Y. High spatial resolution remote sensing image classification based on deep learning[J]. Acta Optica Sinica, 2016, 36(4): 0428001.

[8] Li J, Huang X, Gamba P, et al. Multiple feature learning for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(3): 1592-1606.

[9] 王孟文. 遥感图像识别分类技术研究[D]. 北京: 北京邮电大学, 2017: 11- 14.

    Wang MW. Image recognition by multiple classifer[D]. Beijing: Beijing University of Posts and Telecommunications, 2017: 11- 14.

[10] 王春勇. 犹豫模糊集和Picture模糊集理论与应用研究[D]. 长沙: 湖南大学, 2015: 15- 24.

    Wang CY. Hesitant fuzzy set and picture fuzzy set with their application research[D]. Changsha: Hunan University, 2015: 15- 24.

[11] Torra V. Hesitant fuzzy sets[J]. International Journal of Intelligent Systems, 2010, 25(6): 529-539.

[12] SinghP. Correlation coefficients for picture fuzzy sets[J]. Journal of Intelligent & Fuzzy Systems: Applications in Engineering and Technology, 2015( 2): 591- 604.

[13] 吴正文. 卷积神经网络在图像分类中的应用研究[D]. 成都: 电子科技大学, 2015: 12- 15.

    Wu ZW. Application research of convolution neural network in image classification[D]. Chengdu: University of Electronic Science and Technology, 2015: 12- 15.

[14] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014, 31(6): 456-473.

[15] 韩泽, 蔺素珍, 赵竞超, 等. 基于直觉模糊集的多波段图像融合[J]. 红外技术, 2018, 40(3): 253-258.

    Han Z, Lin S Z, Zhao J C, et al. Multi-band image fusion based on intuitionistic fuzzy set theory[J]. Infrared Technology, 2018, 40(3): 253-258.

[16] 张康, 黑保琴, 周壮, 等. 变异系数降维的CNN高光谱遥感图像分类[J]. 遥感学报, 2018, 22(1): 87-96.

    Zhang K, Hei B Q, Zhou Z, et al. CNN with coefficient of variation-based dimensionality reduction for hyperspectral remote sensing images classification[J]. Journal of Remote Sensing, 2018, 22(1): 87-96.

[17] 闫琦, 李慧, 荆林海, 等. 一种超像素区域相似性度量的遥感信息提取算法[J]. 激光与光电子学进展, 2017, 54(8): 081004.

    Yan Q, Li H, Jing L H, et al. An extraction algorithm of remote sensing information based on similarity measurement for superpixel regions[J]. Laser & Optoelectronics Progress, 2017, 54(8): 081004.

[18] 利拉桑德, 基弗, 奇普曼. 遥感与图像解译[M]. 彭望琭, 余先川, 贺辉, 等译. 北京: 电子工业出版社, 2015: 366- 383.

    Lillesand TM, Kiefer RW, Chipman JW. Remote sensing and image interpretation[M]. Peng W L, Yu X C, He H, et al. Transl. Beijing: Electronic Industry Press, 2015: 366- 383.

[19] 陈洋, 范荣双, 王竞雪, 等. 结合最小噪声分离变换和卷积神经网络的高分辨影像分类方法[J]. 激光与光电子学进展, 2017, 54(10): 102801.

    Chen Y, Fan R S, Wang J X, et al. High resolution image classification method combining with minimum noise fraction rotation and convolution neural network[J]. Laser & Optoelectronics Progress, 2017, 54(10): 102801.

[20] Hu W, Huang Y Y, Wei L, et al. Deep convolutional neural networks for hyperspectral image classification[J]. Journal of Sensors, 2015, 2015: 1-12.

王民, 樊潭飞, 贠卫国, 王稚慧. PFWG改进的CNN多光谱遥感图像分类[J]. 激光与光电子学进展, 2019, 56(3): 031003. Min Wang, Tanfei Fan, Weiguo Yun, Zhihui Wang. PFWG Improved CNN Multispectra Remote Sensing Image Classification[J]. Laser & Optoelectronics Progress, 2019, 56(3): 031003.

本文已被 6 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!