激光与光电子学进展, 2020, 57 (10): 101001, 网络出版: 2020-05-08   

基于FCN的无人机可见光影像树种分类 下载: 1224次

Tree Species Identification Based on FCN Using the Visible Images Obtained from an Unmanned Aerial Vehicle
戴鹏钦 1,2,3,*丁丽霞 1,2,3,**刘丽娟 1,2,3董落凡 1,2,3黄依婷 3
作者单位
1 省部共建亚热带森林培育国家重点实验室, 浙江 杭州 311300
2 浙江省森林生态系统碳循环与固碳减排重点实验室, 浙江 杭州 311300
3 浙江农林大学环境与资源学院, 浙江 杭州 311300
摘要
将深度学习和面向对象方法用于处理超高空间分辨率的无人机可见光影像,以期实现高精度的森林树种遥感分类。首先,利用面向对象方法对无人机影像进行最优尺度分割,基于对象提取特征变量,运用随机森林(RF)法对树种遥感分类,同时对参与分类的变量按重要性排序,并筛选出对分类贡献率最高的两个特征变量——可见光差异植被指数(VDVI)和过绿减过红指数(ExG-ExR)。然后,将这两个特征变量和无人机原始RGB波段融合生成新的数据,针对该数据与原始RGB波段数据,分别利用基于Res-U-Net模型的全卷积神经网络(FCN)方法进行树种分类,并对结果精度评价。最后,为了消除FCN法基于像元分类引起的缺陷,结合面向对象最优分割法对分类结果进行修正。实验结果表明,融合了VDVI和ExG-ExR的FCN方法对无人机影像的树种分类效果最好,总精度为97.8%,Kappa系数为0.970。RF法能够有效筛选分类特征变量,对原始影像添加特征变量能有效提高FCN方法的分类精度,再对面向对象分割结果进行修正,可以基本消除椒盐现象,减弱边缘效应,使总精度提高0.9个百分点,Kappa系数提高了0.013。
Abstract
In this study, we attempt to use deep learning and object-oriented methods to deal with very-high-resolution visible images obtained from an unmanned aerial vehicle (UAV) for achieving high-precision classification of the forest tree species. First, we use the optimal-scale object-oriented method to segment the images obtained from the UAV. The random forest (RF) method is used to classify the tree species for extracting the feature variables. In addition, the classification variables are sorted based on their importance and significance. Further, the most important feature variables with respect to the classification, including the visible light difference vegetation index (VDVI) and the over-green to over-red reduction index (ExG-ExR), are selected. Subsequently, new data are generated by combining two characteristic variables and the original RGB band of the UAV images. Based on the new data and the original RGB band data are both used to classify tree species by the full convolutional neural network (FCN) method based on the Res-U-Net model. Then, the classification result accuracies in the aforementioned cases are evaluated and compared. Finally, the object-oriented segmentation method is used to correct the optimal tree species classification results. The experimental results denote that FCN with respect to VDVI and ExG-ExR exhibits the best classification effect in case of the original images of the tree species obtained via UAVs. The total accuracy is 97.8%, and the Kappa coefficient is 0.970. RF methoed can effectively screen out the classification feature variables. The addition of characteristic variables to the original image can effectively improve the classification accuracy of the FCN method. Finally, the best classification result is obtained using object-oriented segmentation, resulting in the elimination of the salt and pepper phenomenon and the attenuation of the edge effect. The total accuracy improves by 0.9 percentage points and the Kappa coefficient increases by 0.013.

1 引言

树种空间信息是林业管理的基础,它可以用于解决林业保护部门面临的各种应用问题,准确的树种分布图有利于林业资源管理和监测、碳储量估算、森林扰动评估等[1-5]。当前,人们对于树种组成与空间分布信息的需求日益增加[6-8],而遥感技术在获取空间信息方面有着明显的优势[9]。但高分辨率遥感卫星用于获取遥感影像时,时效性较差,价格高且易受外界环境因素的干扰,目前针对精确至树种层面的分类空间分辨率仍不够高。因此如何利用遥感技术获取精确的树种空间分布信息是当前林业遥感的重点与难点。

无人机遥感属于低空遥感技术,与各种高分辨率卫星相比,无人机在获取影像过程中受大气因素的干扰较小,在小区域遥感应用方面有着良好的前景[10]。利用无人机获取超高空间分辨率的影像为提取树种空间信息提供了新的手段,而准确快速提取树种分类信息的技术则是无人机影像在林业应用发挥作用的关键。现有的用于提高无人机影像树种分类精度的方法多是通过传统机器学习及添加手工特征变量的方式,不同的特征变量会导致获得的分类效果不同[11],手工添加特征变量往往依靠经验,具有一定的盲目性[1]。因此亟须一种可以挑选有效特征变量并能精细区分不同树种的方法。

近十几年,深度学习在图像分类上逐渐显现其特有的优势[12]。全卷积神经网络(FCN)是一种多层神经网络,使用反向传播算法进行训练,通过融合不同层的信息来显著提高整个图像分类的准确性[13],这一点和传统图像分类识别方法相比是一个重要的优势。它是在卷积神经网络(CNN)的基础上进行改进的,即将CNN最后的全连接层换成卷积层,采用反卷积层对特征热图进行上采样,使特征热图恢复到与输入图像相同的尺寸,从而对图像按照像素级别进行分类,并保留了输入图像中的空间信息。Res-U-Net架构是对ResNet的修改和扩展,其以能够用非常少的训练样本但仍能获得精确的分类结果而著称。该模型最早被应用于医学图像的分类,由于医学图像的获取成本较高,因此图像样本往往数量有限,但该结构所需的训练样本非常少,并且网络速度快[14]。Xu等[15]和Wang[16]分别将Res-U-Net结构应用于无人机影像的建筑物提取以及高分辨率卫星影像中油类作物和椰子树的分辨,均取得了较高的精度。对于超高精度的无人机影像,上述方法往往被应用于单一树种或是人工建筑的提取,但对于树种层面的分类,鲜有成功案例,本文将对此进行尝试。

考虑到一些树种间的光谱信息具有相似性,且实验所使用的样本数量有限,因此本文将基于Res-U-Net模型的FCN应用于无人机可见光影像的树种分类中,FCN结构在pytorch开源库中实现,并结合面向对象的方法,实现了对森林树种高精度的识别与分类。

2 研究方法

2.1 数据获取

数据获取所用的无人机型号为精灵4PRO,其配备的相机型号为FC6310,相机像素数为2000万,相机焦距为24 mm,影像传感器为1 inch(1 inch=2.54 cm)的互补金属氧化物半导体(CMOS)。

影像拍摄地位于杭州市临安区潜川镇的一个林场,地理位置位于119.72°E、30.23°N。潜川镇自然生态条件优越,森林覆盖率达到76%,其中蕴藏着丰富的林业资源。拍摄时间为2018年12月15日,拍摄期间天气状况良好,拍摄高度约为280 m,属于低空飞行,受大气因素影响较小。拍摄期间无人机相机镜头保持垂直向下,且拍摄时保持悬浮不动。获取的无人机影像用于树种分类,尺寸为3648 pixel×5472 pixel。

2.2 图像分割

面向对象分割是图像分割的一种,其最小单元是由多个相邻像元组成的影像对象,而不再是单个像元。其更多地是应用对象的几何信息和对象间的光谱、拓扑、纹理等信息,而不仅仅是对象的光谱信息[17]。因此面向对象的方法不仅可以提高影像的分类精度,还可以去除椒盐现象,减弱边缘效应。多尺度分割是面向对象分割中常用的方法,对于不同分类目标,合适的分割尺度也不同。因此面向对象分割需要对无人机影像进行最优分割尺度的选择,实验中参考了全局最优判断方法[18-19]来筛选最佳尺度[16]

2.3 特征变量提取

为了更多地利用影像信息,提高分类的精度,本文除了利用图像原始的红、绿、蓝三个波段外,还利用了光谱特征、纹理特征和位置特征。其中光谱特征包括每个波段中各对象所有像素值的平均值和标准差,以及由原始波段计算出来的可见光差异植被指数(VDVI)[20]和过绿减过红指数(ExG-ExR)[21]。VDVI是借鉴归一化植被指数(NDVI)构造的,适用于仅含可见光波段无人机遥感影像的绿色植被信息提取;ExG-ExR是一种改进的颜色指数,基于0阈值的ExG-ExR指数可以很好地对植被的冠层进行区分;纹理特征主要由灰度共生矩阵(GLCM)表征,包括它的均值、标准差和同质化程度,已被证明其在植被分类中可以发挥重要作用[22-23];位置特征包括各对象中心点坐标及X坐标到该点所属对象左边框的距离和Y坐标到该点所属对象上边框的距离。

2.4 随机森林方法

随机森林(RF)是一种集合了多棵分类与回归树的数据挖掘方法。在机器学习中,RF是一个包含多个决策树的分类器,并且其输出的类别是由单棵树输出类别的众数而定[24]。每棵决策树的创建过程都涉及两个步骤:第一步使用bootstrap随机选择约4/5的训练样本来构建每棵决策树,剩余的1/5样本为袋外数据(OOB),用于内部交叉验证以评估RF的分类准确性;第二步是确定决策树中每个节点的分列条件,随机选择特征变量的子集并根据基尼指数来分割每棵树,仅使用RF选择的特征变量子集的优点是使树之间的相关性较小且泛化能力较强。RF法可以通过评估观察结果与袋外预测数据之间的均方误差(InMSE)的增加量来确定每个特征变量的重要性,明确特征变量对分类准确性的贡献[25],即在分类的同时可对参与分类的变量根据贡献进行重要性排序。本研究利用这一特点对众多的特征变量进行有效筛选。

2.5 基于Res-U-Net模型的FCN法

FCN已经被广泛应用于图像分类中,本文将基于Res-U-Net模型的FCN应用于无人机影像的树种分类中。

Res-U-Net网络包括两个路径:收缩(图1左边)与扩张(图1右边)。左边部分为ResNet,用来提取输入数据的信息。将原始红、绿、蓝波段的影像作为对照输入,在原始影像上添加了VDVI和ExG-ExR参与分类,研究添加特征变量是否可以提高FCN对影像的分类精度。在输入层之后连接标准化层和2×2的均值池化层,网络中的激活层包括ReLU和用于子采样的均值池化层,它们都有助于提高网络的鲁棒性[26]。为了获取多尺度的特征,在此深度神经网络中设计了与收缩部分相对应的连接,扩展部分的每个阶段都包含特征热图的上采样(一个上采样层)、一个连接块(两个归一化层和两个ReLU层)以及一个卷积块(两个3×3的卷积层)。在网络的最后添加一个1×1的卷积层,以将特征向量分别映射到各个种类,该层的输出结果为指示像素的各类别得分。最后添加一个Softmax层,各类别中得分最高的即为该像素所属的类别。在此模型的深度卷积神经网络中,应用ResNet作为特征提取器,它解决了层数增加时的梯度下降问题,利于尺度缩减过程中的特征提取。扩展部分中的连接块能够学习多个尺度和不同级别的特征,这不仅增加了网络的鲁棒性,还提高了网络获取信息的准确性[15]

图 1. Res-U-Net模型

Fig. 1. Res-U-Net model

下载图片 查看所有图片

2.6 研究技术路线

对无人机影像进行最优尺度面向对象分割,并提取特征变量,随后应用RF算法对融合了特征变量的分割对象实施树种分类,同时,筛选出显著性最高且对分类准确性贡献最大的两个特征变量。分别对添加了由RF法筛选得到的特征变量影像和原始影像制作样本数据,并输入到基于Res-U-Net模型的FCN中进行训练,训练完成后对图像进行预测分类。由于FCN分类得到的结果存在基于像元分类的缺点,因此利用原始影像进行最优尺度分割后的结果对FCN分类结果图的边界进行约束,划分出具有空间临近性的同质区域,去除结果中的混杂像元(图2)。

图 2. 本文算法的流程图

Fig. 2. Flow chart of proposed method

下载图片 查看所有图片

3 研究结果与分析

3.1 面向对象分割结果

利用大津算法(OTSU)[27]剔除原始影像内的非植被。考虑树种图像的特点,在设置多尺度分割参数时,对于树种分类,光谱信息比形状信息更为重要,因此选择形状指数为0.1,光谱指数为0.9;紧致度和平滑度对于分割同样重要,因此均设置为0.5[28]。分割尺度越大,斑块也越大,但破碎程度较小。利用全局评分法,将植被图的尺度设置为30~200 pixel,并按照10 pixel的步长进行18次分割,计算各自的全局平均得分,选择得分最低的尺度(160 pixel)作为此图的最优分割尺度(图3),

图 3. 不同分割尺度的全局平均得分

Fig. 3. Global average score for each segmentation scale

下载图片 查看所有图片

得到植被图面向对象的最优分割结果,如图4所示。

图 4. 研究区植被影像与面向对象分割结果

Fig. 4. Vegetation image and object-oriented segmentation results in the study area

下载图片 查看所有图片

3.2 标签与样本数据

研究区域的树种类型有毛竹、杉木、马尾松、樟树和蕨类5种,其中樟树是幼龄林,蕨类基本为低矮的蕨类。基于无人机影像面向对象分割矢量结果,结合野外调查与目视判读,对部分斑块进行树种类型标记,剩余斑块和无法判断的区域另归为一类,将标记结果生成标签数据。之后,对无人机影像图和标签图进行对应切块,使用128 pixel×128 pixel滑动窗口,步长为128 pixel生成样本,统计每个窗口内被标记为五种类型的像元总数,若占窗口总像元数的80%以上,则为合格的样本,称为“采样数据集”[图5(a)]。从采样数据集中抽取90%作为训练样本,剩余10%作为检验样本。为防止因样本数量太少而导致过拟合的发生,实验中通过对训练样本分别旋转90°、180°、270°以及将水平翻转后的样本分别旋转90°、180°、270°,将训练样本量增加到原来的8倍[29]图5(b)所示为其中一幅样本图像和它旋转或翻转后的图像及其所对应的标签。

图 5. 标签制作。(a)标签图;(b)样本和对应标签的旋转图

Fig. 5. Label making. (a) Label map; (b) rotation of the sample and corresponding label

下载图片 查看所有图片

3.3 特征变量筛选结果

RF法的应用与树的个数(ntree)和抽取的变量数(mtry)两个参数密切相关。OOB误差随着ntree的增大而减小,根据大数定律,当ntree大于某个阈值时,所有种类的OOB误差都会收敛,表明RF中决策树的数量已经足够。根据图6,确定ntree的值为300。mtry为输入特征变量的平方根。输入特征变量的数量为33(图7所有特征变量及图像的RGB三波段),从而确定mtry为6[30]

图 6. ntree与OOB误差的关系

Fig. 6. Relationship between ntree and OOB error

下载图片 查看所有图片

实验中分别利用基于Res-U-Net的FCN方法和RF方法对无人机影像植被图进行树种分类。其中参与RF法分类的数据特征变量较多,分类过程中,RF法对特征变量进行了重要性排序,见图7。可以看到,ExG-ExR和VDVI对于分类结果精度提升的效果最好,且显著性水平最高,因此选择它们作为FCN对无人机影像进行树种分类的特征变量。

图 7. 各特征变量的平均下降正确率

Fig. 7. Average drop accuracy rate of each characteristic variable

下载图片 查看所有图片

3.4 训练过程中损失率与精度变化

以训练样本数据集作为输入,进行深度神经网络的训练。记录训练过程中FCN的损失率与每轮训练后的参数变化,并计算检验样本分类结果的准确性与训练轮数之间的关系(图8)。随着训练次数的增加,损失值迅速下降,然后继续保持波动态势;分类精度将迅速提高,然后变得相对稳定。

图 8. 训练过程中的损失率与精度变化。(a)损失率;(b)精度

Fig. 8. Loss and accuracy change during training. (a) Loss; (b) accuracy

下载图片 查看所有图片

将添加了特征变量的样本数据集记为A,将原始影像的样本数据集记为B。比较AB的损失率可以发现它们的曲线基本吻合,但A的下降速度略快于B,能够更早地接近稳定并趋近于0,见图8(a)。比较它们的精度可以发现,A的提升速度比B快,且能达到更高的精度水平,见图8(b)。

3.5 FCN及RF分类结果

参与FCN法分类的数据,根据参与分类变量不同,分为2组,一组只有RGB 3个变量,另外一组添加了VDVI与ExG-ExR,两组数据的分类结果分别见图9(c)和图9(b);参与RF法分类的结果如图9(d)所示;利用真实地物类别图[图9(a),黑色为未标注真实地物的部分]对3种分类结果进行精度评价,得到混淆矩阵与精度评价结果(表1)。

图 9. 不同方法的分类结果。 (a)真实地物图;(b)原始RGB数据与VDVI、ExG-ExR数据融合的FCN法;(c)基于原始RGB数据FCN法; (d)基于33个特征变量RF法

Fig. 9. Classification results by different methods. (a) Groundtruth map; (b) FCN method with fused data including original RGB data, VDVI data and ExG-ExR data; (c) FCN method with original RGB data; (d) RF method with 33 feature variables

下载图片 查看所有图片

3.6 面向对象方法优化实验结果

为优化基于象元的分类结果,将面向对象分割结果对FCN分类结果进行修正,得到树种分类结果如图10(b)所示,其分类精度如表2所示。

3.7 结果分析

通过观察图9表1可知,3种分类方法都能反映研究区树种的基本分布,其中添加了VDVI和ExG-ExR特征信息的数据用于FCN法的效果最好,总体精度达到97.8%,Kappa系数为0.978;其次是FCN对原影像图的树种分类,它的总体精度为95.4%,Kappa系数为0.937;RF法的总体分类精度不及前两种方法,仅为89.0%,Kappa系数为0.85。对比图10(a)、(b)和表1表2可知,将面向对象和FCN相结合所获得的树种分类结果,不但大大减小了椒盐现象和边缘效应,且精度和Kappa系数分别达到了98.7%和0.983,较只应用FCN得到的分类结果都有一定的提高。

表 1. 对无人机影像进行分类的精度评价

Table 1. Accuracy evaluation of classification of UAV images

VegetationFCN method withfeature variablesFCN method withoutfeature variableRF method with33 feature variables
Producer accuracyUser accuracyProducer accuracyUser accuracyProducer accuracyUser accuracy
Bamboo0.9960.9940.9860.9870.7070.992
Camphor tree0.9930.9970.9910.9800.9900.999
Fern0.9610.9430.9190.8390.9110.916
Fir0.9660.9500.8960.9450.9830.705
Masson pine0.9200.9440.7920.7910.7250.885
Overall accuracy0.9780.9540.890
Kappa0.9700.9370.850

查看所有表

图 10. 面向对象分割对FCN分类结果修正。 (a)面向对象修正前 (b)面向对象修正后

Fig. 10. Correction of FCN classification results by object-oriented segmentation. (a) Before object-oriented amendments; (b) after object-oriented amendments

下载图片 查看所有图片

表 2. 面向对象分割对FCN分类结果修正精度评价

Table 2. Correction of FCN classification results by object-oriented segmentation

VegetationBambooCamphortreeFernFirMassonpine
Produceraccuracy1.0000.9970.9890.9770864
Useraccuracy0.9960.9990.9650.9720.964
Overallaccuracy0.987
Kappa0.983

查看所有表

4 讨论

4.1 FCN与RF方法对分类结果的影响

图9(c)、(d)可以看出,FCN对于误分斑块现象的发生有着良好的抑制作用,它相较于RF方法的分类优势在毛竹中可以得到很明显的体现,通过混淆矩阵可以发现,运用FCN分类得到的结果中毛竹的生产精度为98.6%,远高于运用RF分类得到的70.7%。由RF的分类结果可以清晰地看到毛竹这一部分有非常严重的误分斑块,而FCN的分类结果在这一部分则显得比较光滑。因为FCN实验中的训练样本的尺寸为128×128,在利用基于Res-U-Net的FCN对研究区进行树种分类时,可以学习到影像不同级别的特征,其中的每个像元在预测类别时不仅依据它的光谱信息,也受到其空间信息的影响。

4.2 不同树种图像相似性对分类结果的影响

对于FCN的分类结果,马尾松的生产者精度最低(仅79.2%),被误分成杉木的像元比例较高。出现此现象的可能原因如下:1)研究区包含的马尾松样本像元数量在所有树种的样本中最少,在总像元中的占比为3.39%;2)马尾松和杉木有着相似的树冠纹理及颜色特征,这很容易导致FCN对这两类树种误分。杉木与蕨类间也有一定程度的误分,原因可能是此地经过择伐,部分杉木被砍倒后混入蕨类中,从而增加了蕨类的空间变异程度,造成了部分杉木与蕨类被误分的情况。

4.3 特征变量对分类结果的影响

对比图9(b)、(c),从分类精度评价看,结合了VDVI、ExG-ExR特征信息的无人机影像对树种分类的精度比只使用RGB光谱信息的影像有明显的提高,总精度从95.4%升至97.8%。特征变量有效地提高了各种树种间的区分度,5类树种的生产者精度和用户精度都有不同程度的提高,尤其是杉木生产者精度由89.6%升至96.6%,精度提高幅度最大。马尾松与杉木均为针叶树,颜色与纹理都比较相似,但从原始影像中提取的VDVI和ExG-ExR不仅能够提高神经网络获取特征信息的准确度,使标签与现实地物有更好的对应,还能在训练过程中辅助表达不同树种类型间的空间分布差异,提高树种分类精度,帮助神经网络更好地找到分类规律,挖掘无人机影像的重要空间信息,从而提高马尾松与杉木的区分度。通过Kappa分析对混淆矩阵进行显著性检验的结果可知,结合特征变量后的系数由原先的0.937上升至0.970,比仅使用光谱信息的精度有了显著的提高。特征变量不仅能够提高神经网络获取特征信息的准确度,使标签与现实地物有更好的对应,还能在训练过程中辅助表达不同树种类型间的空间分布差异,提高树种分类精度。结果表明VDVI与ExG-ExR能够提供无人机影像的重要空间信息,帮助基于Res-U-Net模型的FCN对无人机超高分辨率影像的树种分类方法提高精度。

4.4 面向对象方法与FCN结合对分类结果影响

通过比较图10(a)、(b)可知,FCN分类错误大多出现在地物边界,也就是在两种树种交界处或图像边缘处,这是由地物交界处存在混合象元造成的,从而对分类结果造成了影响。但经过面向对象分割的结果修正后,基于像元转变成基于对象,对一个对象内的所有像元进行边界约束,从而减少混杂像元数量,有效地克服了同物异谱或同谱异物现象,提高了树种分类精度。

5 结论

将基于Res-U-Net模型的FCN应用于无人机影像的树种分类中,通过比较FCN对添加了VDVI和ExG-ExR的特征变量前后的影像和RF对添加了所有特征变量的影像分类效果,可以得到如下结论:

1) 基于Res-U-Net模型的FCN对添加了VDVI和ExG-ExR的无人机影像进行树种分类,能获得高精度的树种分类图,它相比于RF方法提高了分类精度,相比于FCN对原始影像的树种分类,既提高了分类精度,减弱了椒盐噪声的影响,也加快了损失率的下降速度,提高了分类效率。

2) FCN法对图像进行像素级别的分类会造成结果缺乏空间一致性,存在椒盐效应。但基于最优尺度的面向对象分割结果可以对其结果进行修正,虽仍有一些误分斑块,但基本消除了椒盐噪声,减弱了边缘效应,优化了像元分类结果,同时提高了树种分类精度。

参考文献

[1] 滕文秀, 温小荣, 王妮, 等. 基于深度迁移学习的无人机高分影像树种分类与制图[J]. 激光与光电子学进展, 2019, 56(7): 072801.

    Teng W X, Wen X R, Wang N, et al. Tree species classification and mapping based on deep transfer learning with unmanned aerial vehicle high resolution images[J]. Laser & Optoelectronics Progress, 2019, 56(7): 072801.

[2] 李夏, 吴开华, 巩永芳, 等. 休宁县主要树种生物量及碳储量分析[J]. 安徽农业大学学报, 2012, 39(4): 502-506.

    Li X, Wu K H, Gong Y F, et al. Forest biomass and forest carbon storage analysis for the main tree species in XiuningCounty[J]. Journal of Anhui Agricultural University, 2012, 39(4): 502-506.

[3] 余新晓, 鲁绍伟, 靳芳, 等. 中国森林生态系统服务功能价值评估[J]. 生态学报, 2005, 25(8): 2096-2102.

    Yu X X, Lu S W, Jin F, et al. The assessment of the forest ecosystem services evaluation in China[J]. Acta Ecologica Sinica, 2005, 25(8): 2096-2102.

[4] Ørka H O, Dalponte M, Gobakken T, et al. Characterizing forest species composition using multiple remote sensing data sources and inventory approaches[J]. Scandinavian Journal of Forest Research, 2013, 28(7): 677-688.

[5] Fassnacht F E, Latifi H, Stereńczak K, et al. Review of studies on tree species classification from remotely sensed data[J]. Remote Sensing of Environment, 2016, 186: 64-87.

[6] Jensen R R, Hardin P J, Hardin A J. Classification of urban tree species using hyperspectral imagery[J]. Geocarto International, 2012, 27(5): 443-458.

[7] 陈婷婷, 徐辉, 杨青, 等. 武夷山常绿阔叶林空间结构参数分布特征[J]. 生态学报, 2018, 38(5): 1817-1825.

    Chen T T, Xu H, Yang Q, et al. Spatial distribution characteristics of an evergreen broad-leaved forest in the Wuyi Mountains, Fujian Province, southeastern China[J]. Acta Ecologica Sinica, 2018, 38(5): 1817-1825.

[8] 张甍, 李婷婷, 张钦弟, 等. 太岳山主要树种空间分布格局及其维持机制研究[J]. 西北植物学报, 2017, 37(4): 782-789.

    Zhang M, Li T T, Zhang Q D, et al. Study on the spatial distribution patterns and maintaining mechanisms of dominant trees in Taiyue mountain, Shanxi[J]. Acta Botanica Boreali-Occidentalia Sinica, 2017, 37(4): 782-789.

[9] 张立保, 王鹏飞. 高分辨率遥感影像感兴趣区域快速检测[J]. 中国激光, 2012, 39(7): 0714001.

    Zhang L B, Wang P F. Fast detection of regions of interest in high resolution remote sensing image[J]. Chinese Journal of Lasers, 2012, 39(7): 0714001.

[10] Shang X, Chisholm L A. Classification of Australian native forest species using hyperspectral remote sensing and machine-learning classification algorithms[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(6): 2481-2489.

[11] 欧攀, 张正, 路奎, 等. 基于卷积神经网络的遥感图像目标检测[J]. 激光与光电子学进展, 2019, 56(5): 051002.

    Ou P, Zhang Z, Lu K, et al. Object detectionin of remote sensing images based on convolutional neural networks[J]. Laser & Optoelectronics Progress, 2019, 56(5): 051002.

[12] 吴止锾, 高永明, 李磊, 等. 类别非均衡遥感图像语义分割的全卷积网络方法[J]. 光学学报, 2019, 39(4): 0428004.

    Wu Z H, Gao Y M, Li L, et al. Fully convolutional network method of semantic segmentation of class imbalance remote sensing images[J]. Acta Optica Sinica, 2019, 39(4): 0428004.

[13] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

[14] Han Y, Ye J C. Framing U-net via deep convolutional framelets: application to sparse-view CT[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1418-1429.

[15] Xu Y Y, Wu L, Xie Z, et al. Building extraction in very high resolution remote sensing imagery using deep learning and guided filters[J]. Remote Sensing, 2018, 10(1): 144.

[16] 王露. 面向对象的高分辨率遥感影像多尺度分割参数及分类研究[D]. 长沙: 中南大学, 2014.

    WangL. Analysing classification and segmentation parameters selection in high resolution remote sensing image using based on object[D]. Changsha: Central South University, 2014.

[17] 张春晓, 侯伟, 刘翔, 等. 基于面向对象和影像认知的遥感影像分类方法: 以都江堰向峨乡区域为例[J]. 测绘通报, 2010( 4): 11- 14.

    Zhang CX, HouW, LiuX, et al. Remotesensing image classification based on object-oriented and image cognition: a case study in xiang'e, Dujiangyan[J]. Bulletin of Surveying and Mapping, 2010( 4): 11- 14.

[18] 刘兆祎, 李鑫慧, 沈润平, 等. 高分辨率遥感图像分割的最优尺度选择[J]. 计算机工程与应用, 2014, 50(6): 144-147.

    Liu Z Y, Li X H, Shen R P, et al. Selection of the best segmentation scale in high-resolution image segmentation[J]. Computer Engineering and Applications, 2014, 50(6): 144-147.

[19] Johnson B, Xie Z X. Unsupervised image segmentation evaluation and refinement using a multi-scale approach[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2011, 66(4): 473-483.

[20] 汪小钦, 王苗苗, 王绍强, 等. 基于可见光波段无人机遥感的植被信息提取[J]. 农业工程学报, 2015, 31(5): 152-159.

    Wang X Q, Wang M M, Wang S Q, et al. Extraction of vegetation information from visible unmanned aerial vehicle images[J]. Transactions of the CSAE, 2015, 31(5): 152-159.

[21] 孙国祥, 汪小旵, 闫婷婷, 等. 基于机器视觉的植物群体生长参数反演方法[J]. 农业工程学报, 2014, 30(20): 187-195.

    Sun G X, Wang X C, Yan T T, et al. Inversion method of flora growth parameters based on machine vision[J]. Transactions of the CSAE, 2014, 30(20): 187-195.

[22] 任国贞, 江涛. 基于灰度共生矩阵的纹理提取方法研究[J]. 计算机应用与软件, 2014, 31(11): 190-192, 325.

    Ren G Z, Jiang T. Study on glcm-based texture extraction methods[J]. Computer Applications and Software, 2014, 31(11): 190-192, 325.

[23] Han N, Du H Q, Zhou G M, et al. Exploring the synergistic use of multi-scale image object metrics for land-use/land-cover mapping using an object-based approach[J]. International Journal of Remote Sensing, 2015, 36(13): 3544-3562.

[24] 顾星博, 温琪, 史晓雯, 等. 随机森林的并行运算方法及适用条件[J]. 实用预防医学, 2016, 23(2): 129-132.

    Gu X B, Wen Q, Shi X W, et al. Parallel random forest method and its applicable condition[J]. Practical Preventive Medicine, 2016, 23(2): 129-132.

[25] Breiman L, Breiman L, Cutler R. Random forests machine learning[J]. Journal of Clinical Microbiology, 2001, 2: 199-228.

[26] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

[27] Otsu N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1979, 9(1): 62-66.

[28] 穆亚南, 丁丽霞, 李楠, 等. 基于面向对象和随机森林模型的杭州湾滨海湿地植被信息提取[J]. 浙江农林大学学报, 2018, 35(6): 1088-1097.

    Mu Y N, Ding L X, Li N, et al. Classification of coastal wetland vegetation in Hangzhou Bay with an object-oriented, random forest model[J]. Journal of Zhejiang A&F University, 2018, 35(6): 1088-1097.

[29] Hu Y F, Zhang Q L, Zhang Y Z, et al. A deep convolution neural network method for land cover mapping: a case study of Qinhuangdao, China[J]. Remote Sensing, 2018, 10(12): 2053.

[30] Rodriguez-Galiano V F, Ghimire B, Rogan J, et al. An assessment of the effectiveness of a random forest classifier for land-cover classification[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2012, 67: 93-104.

戴鹏钦, 丁丽霞, 刘丽娟, 董落凡, 黄依婷. 基于FCN的无人机可见光影像树种分类[J]. 激光与光电子学进展, 2020, 57(10): 101001. Pengqin Dai, Lixia Ding, Lijuan Liu, Luofan Dong, Yiting Huang. Tree Species Identification Based on FCN Using the Visible Images Obtained from an Unmanned Aerial Vehicle[J]. Laser & Optoelectronics Progress, 2020, 57(10): 101001.

本文已被 4 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!