激光与光电子学进展, 2020, 57 (14): 142801, 网络出版: 2020-07-28   

基于可见光波段无人机遥感的火龙果精准识别方法 下载: 823次

An Accurate Recognition Method of Pitaya Plants Based on Visible Light Band UAV Remote Sensing
朱孟 1,2周忠发 1,2,*蒋翼 1,2黄登红 1,2
作者单位
1 贵州师范大学喀斯特研究院/地理与环境科学学院, 贵州 贵阳 550001
2 国家喀斯特石漠化防治工程技术研究中心, 贵州 贵阳 550001
摘要
快速、高效地区分并剔除火龙果地块间的杂草是提高火龙果单株提取精度的关键所在。通过四旋翼无人机平台获取高空间分辨率可见光波段的影像,分析火龙果植株和杂草R、G、B通道的光谱特征,根据其影像像元亮度值(DN值)构建相近颜色差异植被指数(CCVI),通过最大类方差(OTSU)阈值分割、Majority/Minority分析和聚类空洞填补,并与VDVI、EXG、NGRDI等可见光波段指数作对比研究。结果表明:1) 对于杂草覆盖度较高甚至杂草全覆盖火龙果的地块,CCVI提取效果较好,而其余3种指数在杂草与植株共生的地块中分类精度较低;2) 3个研究感兴趣区域(ROI)内样本的提取总体精度为94.60%,Kappa系数为0.9417,测试样本的提取总体精度和Kappa系数分别为94.33%、0.9328,经验证,对于不同区域内生活环境相似的植株的提取精度趋近一致。结果证实: CCVI能从杂草中辨别火龙果植株并提取单株,提取效果较好,该方法可与VDVI、EXG、NGRDI等指数互补应用。
Abstract
Quickly and efficiently distinguishing and eliminating weeds is one of the keys to improving the extraction accuracy of pitaya plants. In this study, a high-resolution aerial image is acquired using a four-rotor unmanned aerial vehicle (UAV) platform with a visible light lens. The spectral characteristics of pitaya plants and weeds in R, G and B channels are then analyzed, and the close color difference vegetation index (CCVI) is constructed based on the pixel digital number (DN) values. Through OTSU threshold segmentation, majority/minority analysis and cluster hole filling, the mainstream indices including VDVI, EXG, and NGRDI are compared with CCVI. Results show the following: 1) for the pitaya plant plot with a high or full coverage rate for weed, the CCVI extraction effect is better, whereas the other three indices have poor classification effect in the plot where weeds and plants coexist; 2) for the three research ROI samples, the overall average accuracy and the Kappa coefficient are 94.60%, 0.9417, respectively, and for the test sample, the overall extraction accuracy and the Kappa coefficient are 94.33% and 0.9328, respectively. Thus, it is verified that the extraction accuracy of plants with similar habitats in different regions is fairly similar. Results confirm that the CCVI can be used to identify and extract the individual pitaya plants from the weeds with the UAV remote sensing scheme, and its extraction effect is good. The proposed method can be applied in conjunction with VDVI, EXG, and NGRDI.

1 引言

火龙果属于仙人掌科三角柱属植物,源产于墨西哥和巴西等中美洲热带沙漠地区,早期主要分布在我国台湾、海南、广东、广西、福建南部等地区[1-2],后经引种与环境自适应品种的研发,火龙果以极具经济价值与能够缓解喀斯特山区石漠化加剧的特色水果身份,在贵州扎根于罗甸、关岭、册亨、望谟、贞丰和镇宁一带。随着种植面积的增加及生长环境的变化,基于遥感手段的监测精度亟待提高,朱孟等[3]因地制宜使用小型无人机获取种植区可见光波段影像,实现了单株火龙果的识别提取,但该方法仅适用于生长环境呈植株-裸地状态的种植区域,如何剔除杂草对植株提取的干扰尚未解决。

针对地块间杂草的识别,部分学者主要从其形态[4-6]、纹理[7-10]、光谱[11-14]特征及其特征融合[15-18]方向进行了研究。在杂草形态特征方面,从其整体特征结合支持向量机(SVM)的面向对象分类提取取得了初步效果,但需要根据每一类杂草的形态做大量的样本,提取精度与样本数量呈正相关,一定程度上增加了样本数据的冗余,延长了提取周期。纹理与光谱能够重点突出杂草的细节信息,基于纹理与光谱的提取都与影像的空间分辨率极大相关,现有的地块间杂草纹理与光谱特征的采集主要通过近地面获取,在像元精度上得到了较好的保证,凸显了杂草的细节特征,但该方式劳动成本大,特征受限于局部信息干扰,在大区域的研究中没有代表性。另有学者从机器视觉[19-23]、神经网络[24-31]等方面也进行了探索,该方法依托计算机软硬件支持及研究者的编程能力,难以做到技术的迁移与大众化。

杂草种类丰富,形态各异。杂草与火龙果植株同属绿色植被,基于现有的颜色植被指数很难将其区分,很大程度上降低了火龙果提取的精度,阻碍了其应用推广。贵州的火龙果大多种植于喀斯特山区的斜坡山地,周边环境山高谷深,地块破碎,地块间坡度较大,且受云、雨、雾的影响,很难基于传统的卫星获取影像数据,因此本文以四旋翼无人机搭载可见光镜头作为数据采集手段,充分利用其在喀斯特山区小区域大比例尺作业中开展的众多优点,获取火龙果种植区厘米级RGB影像,从火龙果植株与杂草的R、G、B通道像元亮度值(DN值,ρ)差异构建相近颜色差异植被指数(CCVI),进行数字化计算及灰度特征值统计、阈值掩模提取、主次分析、聚类分析等分类后处理,为火龙果单株提取过程中剔除杂草干扰提供参考价值。

2 材料与方法

2.1 研究区概况

研究区选取贵州省南部边陲罗甸县的阳光果园(25°19'43.45″N、106°38'44.78″E)、新中盛(25°24'29.66″N、106°47'40.13″E)和郎当(25°25'15.84″N、106°47'29.79″E)3个火龙果基地。研究区内属于亚热带季风气候,具有春早、夏长、秋迟、冬短的特点,年均日照达1350~1520 h,年平均温度达20 ℃,土壤多为砂质红壤与红棕壤,因其得天独厚的气候条件与地理优势,罗甸县素有“天然温室”之称,是种植火龙果的理想地方。基地品种以紫火龙、粉火龙和台湾大红火龙为主,立地条件为喀斯特山地,种植间距为3 m×2 m,火龙果每年挂果时间为5月至11月,每月挂果两次,具有极强的经济效益潜力。

2.2 数据获取与处理

本次实验数据使用大疆Mavic 2 Pro搭载L1D-20c哈苏相机进行拍摄采集,机身四旋翼可折叠,便捷灵活,相机有效像素2000万,影像传感器为1 inch(1 inch=2.54 cm)互补金属氧化物半导体(CMOS),单张航片最大分辨率为5472 pixel×3684 pixel,运动模式下飞行速度为72 km/h,实际工作中水平悬停精度为±0.2 m,垂直悬停精度为±0.1 m。由于影像的色差变化与采集数据的天气和时间相关,因此一般选择晴朗的12:00—14:00进行拍摄,此时太阳入射光线基本垂直于地表,可以减少因太阳光斜射引起的作物阴影。研究区在喀斯特山区的山腰区域,测区高差较大,整体坡度约为45°,数据获取采用Altizure规划航线。为保证数据精度,设置航向重叠度为80%,旁向重叠度为85%,航高设计(50,70,90 m)3个飞行高度,结果发现50 m时数据采集冗余,90 m时影像分辨率较低,而70 m时既满足数据精度又可减少数据采集冗余。正射影像拼接使用Pix4DMapper,内容包括航片筛选、空三加密和数字产品生成。火龙果基地生长环境一般呈植株-裸地、植株-杂草、植株-裸地-杂草状态,通过ENVI5.5软件对获取的影像进行预处理,并裁剪出植株-杂草的感兴趣区域(ROI)样本。

2.3 实验设计

为探究纯火龙果和纯杂草的光谱特征,充分考虑单个样区实验的偶然性,此实验共选取不同区位的3个火龙基地作为样区,通过ENVI5.5软件分别裁剪出3个植株-杂草ROI,在每个ROI沿对角线分别采集纯植株和纯杂草样本各5个,共计30个,其中植株样本标号为p1~p5,杂草样本标号为g1~g5。为避免样本中出现混合像元,根据植株和杂草的形状特征,每个样本采集11个像元,最终分别获取30个样本的R、G、B波段纯净像元平均DN值见表1,植株和杂草样本反射率见图1

表 1. 不同样区火龙果植株与杂草影像DN值

Table 1. DN values of pitaya fruit plants and weeds in the different areas

Sample areaPlantDN valueWeedDN value
RedGreenBlueRedGreenBlue
Sunshine orchardp1157.54165.81116.28g155.67124.4565.73
p2155.61168.52119.46g241.51116.5561.75
p3204.43202.81124.57g371.43147.7873.80
p4175.76182.75106.44g443.78119.0356.67
P5184.95178.79127.021g543.61102.5449.99
Xinzhongshengp1173.62178.55117.45g161.8389.0244.31
p2180.17176.56125.66g251.2274.0746.86
p3199.5695.27137.42g3100.46128.0076.36
p4181.24188.90121.69g482.84111.3770.04
P5183.61187.47123.28g544.6576.0744.87
Langdangp1167.19181.03125.82g170.80126.0992.72
p2186.08197.01132.06g245.41105.8881.68
p3216.19219.06153.55g377.84122.4570.45
p4142.05169.60135.95g441.50100.9065.73
p5215.53212.67169.03g546.66104.2768.53

查看所有表

图 1. 阳光果园、新中盛、郎当三个样区的影像以及对应的植株和杂草反射率。(a)影像;(b)植株反射率;(c)杂草反射率

Fig. 1. Images of Sunshine orchard, Xinzhongsheng and Langdang, as well as the corresponding reflectances of plants and weeds. (a) Images; (b) plant reflectance; (c) weed reflectance

下载图片 查看所有图片

图 2. 火龙果植株像元、杂草像元和三原色加色原理。(a)火龙果植株像元;(b)三原色加色法;(c)杂草像元

Fig. 2. Pitaya fruit plant pixel, weed pixel and principles of three primary colors addition. (a) Pitaya fruit plant pixel; (b) three primary colors additive color scheme; (c) weed pixel

下载图片 查看所有图片

2.4 植株与杂草光谱特征

表1可知,3个样区火龙果植株纯净像元的R、G波段的DN值(ρR, ρG)明显高于B波段(ρB),且同一个样本的R、G波段的DN值近似相等,而杂草样本纯净像元G波段DN值高于R、B波段,整体上有ρG>ρB>ρR的趋势。对比植株与杂草,植株的R、G、B 波段DN值也明显高于杂草,且ρp≈3.60 ρg),因此植株与杂草像元DN值有明显区别。研究区火龙果植株树龄为7至9年,处于其生长状态的稳定期,而杂草基本是一年生植物,相较两者,火龙果植株所含叶绿素对光的敏感性低于杂草,由此导致R、G、B波段对太阳光的吸收与反射能力存在差异。由图1中3个样区的可见光波段影像可以直观地看出,火龙果植株颜色偏黄,杂草较绿。R、G、B三种颜色是最佳的三原色,根据三原色的加色原理(见图2),可以最方便地产生其他颜色,地物之所以呈现不同的视觉颜色,是因为地物内部机理对光发射出电磁波的感知能力和吸收与反射光有差异。植株偏黄就是因为植株对R、G波段光高反射,对B波段的光高吸收,杂草较绿是因为杂草对G波段的光高反射。图1中植株和杂草光谱反射率曲线趋势也证实了这一现象。

2.5 相近颜色植被指数构建

针对可见光波段的应用,目前主流的指数主要有可见光波段差异植被指数(VDVI) [32]、过绿指数(EXG)[33]、归一化绿红差异植被指数(NGRDI)[34],其优点是能运用于大区域的植被提取,但对于植被的更精细化区分,效果则不显著。计算方式如下:

ηVDVI=[2×ρG-(ρR+ρB)][2×ρG+(ρR+ρB)],(1)ηEXG=2×ρG-ρR-ρB,(2)ηNGRDI=ρG-ρRρG+ρR(3)

图3RpGpBp,RgGgBg分别表示植株和杂草红、绿、蓝3波段。植株3个波段在反射率区间、中位数、平均值和50%概率区间都显著高于杂草,其中,植株在R、G、B波段反射率R区间分别在0.56~0.85、0.65~0.86、0.41~0.61,R波段反射率在0.66~0.79占50%,平均值为0.72,B波段反射率在0.69~0.77占50%,平均值为0.73,G波段反射率在0.46~0.54占50%,平均值为0.51。杂草在R、G、B 波段的反射率平均值分别为0.20、0.44、0.26。为了突出植株与杂草的颜色差异,结合两者在R、G、B波段反射率的数值关系,根据植株对R、G反射加色原理,构建基于可见光红绿蓝3波段的相近颜色植被指数(CCVI),其基本思想是找出植株与杂草的DN值或者其反射率R的差异,并把这种差异最大限度地扩大,并将其区分开,计算公式为

ηCCVI=(3.60RR+1.66RG)2-1.96RB(4)

图 3. 火龙果植株与杂草同波段反射率对比。(a) R波段;(b) G波段;(c) B波段

Fig. 3. Comparison of reflectance between pitaya fruit plants and weeds. (a) R-band; (b) G-band; (c) B-band

下载图片 查看所有图片

2.6 阈值提取

最大类方差(OTSU)算法,是一种对图像进行二值化的高效算法[35],它可按照图像的灰度特征将其分为背景值和目标地物2部分,当阈值T使目标物与背景值之间的类方差最大时,T为识别提取目标地物的最佳阈值。计算公式为 [36]

W0=N0/MN,(5)W1=N1/MN,(6)N0+N1=MN,(7)W0+W1=1,(8)μ=W0μ0+W1μ1,(9)σ=W0(μ0-μ)2+W1(μ1-μ)2,(10)

式中:W0为目标像元点占整景图像的比例;W1为背景像元点占整景图像的比例;μ0为目标地物像元平均灰度;μ1为背景像元平均灰度;μ为图像总平均灰度;MN表示图像大小;N0为灰度小于最佳阈值时的像元个数;N1为灰度大于最佳阈值时的像元个数;σ为类间方差。

3 结果与分析

3.1 植被指数计算

为了充分说明构建指数的计算效果,选取3个样区使用(1)~(3)式和本研究构建的(4)式进行计算,得到植被指数灰度空间分布如图4所示。

图 4. 植被指数计算结果。(a) CCVI;(b) VDVI;(c) EXG;(d) NGRDI

Fig. 4. Vegetation index calculation results. (a) CCVI; (b) VDVI; (c) EXG; (d) NGRDI

下载图片 查看所有图片

图4中可以看出,CCVI、VDVI、EXG指数灰度空间从黑色到白色相间分布,而NGRDI指数灰度图显示为零星的白色斑点和大片黑色背景,该图几乎把植株和杂草都归为背景一类,故NGRDI指数无法用于区分火龙果植株与杂草,应首先予以排除。在VDVI与EXG指数的计算结果中,由于火龙果植株与杂草具有强反射,其像元DN值较高,造成计算数值偏大,导致颜色较亮,故植株与杂草都呈较亮的白色。两个指数都能较大程度地把植被区域提取出来,但并不能区分植被种类等细节。而在新构建的CCVI的灰度计算结果中,火龙果植株区域都呈白色且分离度较高,杂草与其他背景偏黑色,统计其特征值如表2所示,在3个样区的火龙果植株与杂草的平均灰度值结果中,阳光果园火龙果植株与杂草的平均灰度值比值为4.94∶1、新中盛为6.08∶1、郎当呈6.33∶1,植株与杂草的平均灰度值呈显著的倍数关系,二值化区分效果较好。

表 2. 三个样区CCVI特征值统计

Table 2. Statistics feature of CCVI in three plots

Sample areaPitaya plant characteristic valueWeed characteristic value
MinimumaverageMaximumStandarddeviationMinimumaverageMaximumStandarddeviation
Sunshine orchard783000.961290893.481798786.00245070.451233.02261206.11787637.31195821.54
Xinzhongsheng772980.501274373.341775766.00289472.283072.02209502.10778622.00196916.48
Langdang754811.831276831.22179.8850.63301381.167019.33201604.79758883.56153324.26

查看所有表

3.2 火龙果植株提取及精度评价

将CCVI应用到三个样区的火龙果提取中,通过灰度密度分割获取植株与杂草的灰度空间分布,采用最大类方差阈值掩模方法将植株与杂草的灰度二值化。由于CCVI以像元计算,二值化结果会出现部分不连续的碎小斑块和斑块空心现象,需通过卷积滤波和聚类分析等处理方法,去除碎小斑块,填充斑块空心区域,最终获取的三个样区的提取结果,如图5所示。

图 5. 三样区CCVI提取结果。(a)阳光果园;(b)新中盛;(c)郎当

Fig. 5. CCVI extraction results in three sample regions. (a) Sunshine orchard; (b) Xinzhongsheng; (c) Langdang

下载图片 查看所有图片

图5可以看出,阳光果园和郎当立地条件为山地斜坡,且郎当的斜坡倾斜度大于阳光果园,新中盛ROI区域为平地,三个样区中,新中盛区域的提取效果最好,阳光果园和郎当受地形的影响,数字正射影像(DOM)精度受损从而引起DN值的变化,造成植株的少许漏提。另一方面,由于杂草与植株没有完全覆盖整个样区,存在少部分的裸土和田坎,裸土的DN值大于等于植株的DN值,指数计算时误把裸土和田坎当作植株参与计算,故引起了部分多提误差。通过人机交互分别获取三个样区火龙果的实际株数和CCVI提取株数,提取的特征统计及精度评价如表3所示。

对比三个样区实际株数和提取株数,阳光果园多提14株,新中盛多提5株,郎当漏提10株, 总体精度和Kappa系数均大于90%,达到了提取精度的一般要求。实际生长环境中,由于对火龙果植株的人为管理不周或是火龙果植株的自然倒伏,常会存在大于等于两株植株连体现象,在影像中表现为像元DN值近似连续。连体植株除了受火龙果种植本身的种植结构和管理不周的影响,还与提取后处理参数设置有关。灰度二值化后的结果充分保留了相似DN值的特征,但也造成部分斑块离散和不连续。为了解决这一问题,定义一个像元大小的变换核,以植株中心像元为起点,9×9窗口为灰度值遍历区域,将该范围内变换核中占次要地位(像元数最少)的像元归类到中心像元的值类别内。这一步骤较好地膨胀和丰富了植株区域,为后面的主要分析和聚类处理打下了基础,但同时也导致少数相隔较近的植株像元在空间上连续。

表 3. 提取特征值及精度验证

Table 3. Extracting feature values and precision validation

SampleareaThresholdextractionActualplants (strain)Extractedplants (strain)Errorrate /%Connectedrate /%Overallaccuracy /%Kappacoefficient
Sunshine orchard890264.571781927.8712.5192.130.9183
Xinzhongsheng889421.011891940.5310.0097.350.9649
Langdang902104.081761665.685.4794.320.9418

查看所有表

3.3 方法测试验证

上述结果表明,CCVI能从杂草中识别火龙果植株,解决了VDVI、EXG和NGRDI不能区分植株与杂草的问题,CCVI可以与现有指数互为补充使用。为了验证该方法的可迁移性和准确性,选取不同区域的贵州省关岭县花江镇火龙果基地,生长环境呈植株与杂草的ROI样本进行测试。

图 6. CCVI验证结果。(a)测试原始图像;(b) CCVI计算结果;(c) CCVI提取结果

Fig. 6. CCVI verification results. (a) Test original image; (b) CCVI calculation result; (c) CCVI extraction result

下载图片 查看所有图片

图6所示,为了测试CCVI提取火龙果的精度,在ROI样区中随机裁剪一块呈杂草-植株生长状态的验证样本。CCVI灰度计算结果中,颜色从黑到白渐变,表示灰度值由低到高变化,通常黑灰色表示杂草区域,白色区域表示火龙果植株。经人机交互解译,获取该地块火龙果测试实际株数为353株,提取株数为343株,其中漏提15株,误提5株,总体精度为94.33%,Kappa分类系数为0.9328。测区的上半部分连体现象较显著,一方面源自于植株本身的生长状态,另一方面是因为将部分土壤和田埂归错分为植株。基于CCVI灰度计算,虽然会造成部分漏提误提现象,如图7所示,但是分类提取精度评价指标均较高,满足精度要求,测试样本与3个样区的总体精度和Kappa系数趋势基本一致,可以用于从杂草中区分火龙果并对火龙果进行提取。

图 7. 验证区CCVI提取精度指标比较。(a)漏提率;(b)误提率;(c)正确率;(d)总体精度;(e) Kappa系数

Fig. 7. Comparison of CCVI extraction accuracy indicators in verification area. (a) Leakage rate; (b) mistake rate; (c) connected rate; (d) overall accuracy; (e) Kappa coefficient

下载图片 查看所有图片

4 结论

火龙果作为喀斯特山区的特色优势水果,其生长环境复杂,地块破碎,田埂密集不规则,目前贴地可机械化操作尚未突破,传统的生长监测与估产投入了很大的人力劳动成本,而采用无人机遥感方案监测方法受杂草与地形等诸多因素的影响,也一直停滞不前。本研究根据火龙果植株与杂草的像元DN值差异特征,构建CCVI,并与VDVI、EXG、NGRDI等可见光波段植被指数作对比研究,对比结果可知CCVI能更好地从杂草中提取出火龙果植株。经实验,得出以下结论:

1) 由于地块部分土壤反射率近似等于火龙果植株,在CCVI灰度计算时,容易将部分土壤误归为植株,会造成少数植株与土壤混合,在提取结果中表现为连体现象。阳光果园、新中盛、郎当3个样区火龙果植株提取总体平均精度为94.60%,植株与杂草分类Kappa系数平均值为0.9417。经精度测试验证,测试ROI样本火龙果植株提取总体精度为94.33%,Kappa系数为0.9328,总体提取精度较高。

2) CCVI结合阈值掩模、主次要分析和聚类处理,能较好地解决火龙果生长环境呈植株-杂草状态的地块,CCVI中的参数为可变参数,本文针对测区的火龙果植株与杂草特征进行实验获取。成熟状态的火龙果植株为多年生植物,参数基本稳定,对其他作物结合特征分析来获取。VDVI、EXG等指数能分类植被与非植被,CCVI能从植被中再分类,两者能互为补充应用。

3) 喀斯特复杂山地农业发展受限于地形、小生境环境及气候的影响,传统卫星受云、雨、雾的影响很难获取到满足精度要求的数据,而采用低空无人机遥感方案对作物生长数据采集与监测具有灵活的周期性与时效性。该研究可对相关的农业发展辅助决策支持提供高效支撑。

参考文献

[1] Pimienta-Barrios E, Nobel P S. Pitaya (Stenocereus Spp., Cactaceae): an ancient and modern fruit crop of Mexico[J]. Economic Botany, 1994, 48(1): 76-83.

[2] 何小帆, 丁文沙, 钟源源, 等. 红心火龙果离体培养技术研究[J]. 云南农业大学学报(自然科学), 2019, 34(4): 656-662.

    He X F, Ding W S, Zhong Y Y, et al. Study on in vitro cultural technique of red pitaya[J]. Journal of Yunnan Agricultural University(Natural Science), 2019, 34(4): 656-662.

[3] 朱孟, 周忠发, 赵馨, 等. 基于无人机遥感的喀斯特高原峡谷区火龙果单株识别提取方法[J]. 热带地理, 2019, 39(4): 502-511.

    Zhu M, Zhou Z F, Zhao X, et al. Recognition and extraction method of single dragon fruit plant in plateau-canyon areas based on UAV remote sensing[J]. Tropical Geography, 2019, 39(4): 502-511.

[4] 王路军, 石峻全, 黄津津. 基于植株整体形状特征的杂草识别算法的研究[J]. 农业工程技术, 2016, 36(14): 15-16.

    Wang L J, Shi J Q, Huang J J. Research on weed recognition algorithm based on overall shape characteristics of plants[J]. Agricultural Engineering Technology, 2016, 36(14): 15-16.

[5] 吴兰兰, 刘剑英, 文友先, 等. 基于支持向量机的玉米田间杂草识别方法[J]. 农业机械学报, 2009, 40(1): 162-166.

    Wu L L, Liu J Y, Wen Y X, et al. Weed identification method based on SVM in the corn field[J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(1): 162-166.

[6] Xavier S, Coffin A, Olson D, et al. Remotely estimating beneficial arthropod populations: implications of a low-cost small unmanned aerial system[J]. Remote Sensing, 2018, 10(9): 1485.

[7] 曹晶晶, 王一鸣, 毛文华, 等. 基于纹理和位置特征的麦田杂草识别方法[J]. 农业机械学报, 2007, 38(4): 107-110.

    Cao J J, Wang Y M, Mao W H, et al. Weed detection method in wheat field based on texture and position features[J]. Transactions of the Chinese Society for Agricultural Machinery, 2007, 38(4): 107-110.

[8] 王怀宇, 李景丽. 基于纹理特征的玉米苗期田间杂草识别[J]. 江苏农业科学, 2014, 42(7): 143-145.

    Wang H Y, Li J L. Identification of field weeds in corn seedling stage based on texture features[J]. Jiangsu Agricultural Sciences, 2014, 42(7): 143-145.

[9] 王宏艳, 吕继兴. 基于纹理特征与改进SVM算法的玉米田间杂草识别[J]. 湖北农业科学, 2014, 53(13): 3163-3166, 3169.

    Wang H Y, Lü J X. Identifying corn weed based on texture features and optimized SVM[J]. Hubei Agricultural Sciences, 2014, 53(13): 3163-3166, 3169.

[10] Woebbecke D M, Meyer G E, Bargen K V, et al. Color indices for weed identification under various soil, residue, and lighting conditions[J]. Transactions of the ASAE, 1995, 38(1): 259-269.

[11] 李攀. 基于多光谱图像的玉米田间杂草识别方法研究[D]. 咸阳: 西北农林科技大学, 2014.

    LiP. Corn and weed seedlings detection based on multi-spectral images[D]. Xianyang: Northwest A & F University, 2014.

[12] 白敬, 徐友, 魏新华, 等. 基于光谱特性分析的冬油菜苗期田间杂草识别[J]. 农业工程学报, 2013, 29(20): 128-134.

    Bai J, Xu Y, Wei X H, et al. Weed identification from winter rape at seedling stage based on spectrum characteristics analysis[J]. Transactions of the CSAE, 2013, 29(20): 128-134.

[13] 陈树人, 邹华东, 吴瑞梅, 等. 基于高光谱图像技术的稻田苗期杂草稻识别[J]. 农业机械学报, 2013, 44(5): 253-257, 163.

    Chen S R, Zou H D, Wu R M, et al. Identification for weedy rice at seeding stage based on hyper-spectral imaging technique[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(5): 253-257, 163.

[14] 刘波, 方俊永, 刘学, 等. 基于成像光谱技术的作物杂草识别研究[J]. 光谱学与光谱分析, 2010, 30(7): 1830-1833.

    Liu B, Fang J Y, Liu X, et al. Research on crop-weed discrimination using a field ImagingSpectrometer[J]. Spectroscopy and Spectral Analysis, 2010, 30(7): 1830-1833.

[15] 赵鹏, 韦兴竹. 基于多特征融合的田间杂草分类识别[J]. 农业机械学报, 2014, 45(3): 275-281.

    Zhao P, Wei X Z. Weed recognition in agricultural field using multiple feature fusions[J]. Transactions of the Chinese Society of Agricultural Machinery, 2014, 45(3): 275-281.

[16] 王淑芬, 杨玲香. 基于GA-ANN融合算法的棉田杂草特征降维及分类识别[J]. 河南农业科学, 2018, 47(2): 148-154, 160.

    Wang S F, Yang L X. Feature dimension reduction and category identification of weeds in cotton field based on GA-ANN complex algorithm[J]. Journal of Henan Agricultural Sciences, 2018, 47(2): 148-154, 160.

[17] 何东健, 乔永亮, 李攀, 等. 基于SVM-DS多特征融合的杂草识别[J]. 农业机械学报, 2013, 44(2): 182-187.

    He D J, Qiao Y L, Li P, et al. Weed recognition based on SVM-DS multi-feature fusion[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(2): 182-187.

[18] 邓向武, 齐龙, 马旭, 等. 基于多特征融合和深度置信网络的稻田苗期杂草识别[J]. 农业工程学报, 2018, 34(14): 165-172.

    Deng X W, Qi L, Ma X, et al. Recognition of weeds at seedling stage in paddy fields using multi-feature fusion and deep belief networks[J]. Transactions of the CSAE, 2018, 34(14): 165-172.

[19] 颜秉忠. 机器视觉技术在玉米苗期杂草识别中的应用[J]. 农机化研究, 2018, 40(3): 212-216.

    Yan B Z. Identification of weeds in maize seedling stage by machine vision technology[J]. Journal of Agricultural Mechanization Research, 2018, 40(3): 212-216.

[20] 周影, 房建东, 赵于东. 基于主成分-贝叶斯分类模型的除草机器人杂草识别方法[J]. 机床与液压, 2018, 46(6): 104-110, 126.

    Zhou Y, Fang J D, Zhao Y D. Weed identification method of weeding robot based on PCA-NBC classification model[J]. Machine Tool & Hydraulics, 2018, 46(6): 104-110, 126.

[21] 赵娜. 基于机器视觉的田间杂草识别技术研究[J]. 无线互联科技, 2016( 23): 141- 142.

    ZhaoN. Study on identification method of weeds based on machine vision[J]. Wireless Internet Technology, 2016( 23): 141- 142.

[22] Kim D W, Yun H E, Jeong S J, et al. Modeling and testing of growth status for Chinese cabbage and white radish with UAV-based RGB imagery[J]. Remote Sensing, 2018, 10(4): 563.

[23] 袁立, 袁吉收, 张德政. 基于DeepLab-v3+的遥感影像分类[J]. 激光与光电子学进展, 2019, 56(15): 152801.

    Yuan L, Yuan J S, Zhang D Z. Remote sensing image classification based on DeepLab-v3+[J]. Laser & Optoelectronics Progress, 2019, 56(15): 152801.

[24] 邹华东, 陈树人, 陈刚, 等. 基于人工神经网络的稻田杂草稻光谱识别[J]. 农机化研究, 2013, 35(1): 156-158, 163.

    Zou H D, Chen S R, Chen G, et al. Identification of weedy rice using vis/NIR spectroscopy and artificial neural network[J]. Journal of Agricultural Mechanization Research, 2013, 35(1): 156-158, 163.

[25] Böhler J, Schaepman M, Kneubühler M. Crop classification in a heterogeneous arable landscape using uncalibrated UAV data[J]. Remote Sensing, 2018, 10(8): 1282.

[26] 杨建姣. 基于BP神经网络的田间杂草识别技术的研究[D]. 长春: 吉林农业大学, 2017.

    Yang JJ. Study on identification of the field weed based on BP neural networks[D]. Changchun: Jilin Agricultural University, 2017.

[27] 董亮, 雷良育, 李雪原, 等. 基于改进型人工神经网络的温室大棚蔬菜作物苗期杂草识别技术[J]. 北方园艺, 2017( 22): 79- 82.

    DongL, Lei LY, Li XY, et al. Weed identification technology of greenhouse vegetable crops in greenhouse based on improved artificial neural network[J]. Northern Horticulture, 2017( 22): 79- 82.

[28] 王璨, 武新慧, 李志伟. 基于卷积神经网络提取多尺度分层特征识别玉米杂草[J]. 农业工程学报, 2018, 34(5): 144-151.

    Wang C, Wu X H, Li Z W. Recognition of maize and weed based on multi-scale hierarchical features extracted by convolutional neural network[J]. Transactions of the CSAE, 2018, 34(5): 144-151.

[29] 姜红花, 王鹏飞, 张昭, 等. 基于卷积网络和哈希码的玉米田间杂草快速识别方法[J]. 农业机械学报, 2018, 49(11): 30-38.

    Jiang H H, Wang P F, Zhang Z, et al. Fast identification of field weeds based on deep convolutional network and binary hash code[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(11): 30-38.

[30] Louhaichi M, Borman M M, Johnson D E. Spatially located platform and aerial photography for documentation of grazing impacts on wheat[J]. Geocarto International, 2001, 16(1): 65-70.

[31] 王生生, 王顺, 张航, 等. 基于轻量和积网络及无人机遥感图像的大豆田杂草识别[J]. 农业工程学报, 2019, 35(6): 81-89.

    Wang S S, Wang S, Zhang H, et al. Soybean field weed recognition based on light sum-product networks and UAV remote sensing images[J]. Transactions of the CSAE, 2019, 35(6): 81-89.

[32] 汪小钦, 王苗苗, 王绍强, 等. 31(5): 152-157[J]. . 基于可见光波段无人机遥感的植被信息提取. 农业工程学报, 2015, 159: 158.

    Wang XQ, Wang MM, Wang SQ, et al., 2015, 31(5): 152-157, 159, 158.

[33] 迟德霞, 张伟, 王洋. 基于EXG因子的水稻秧苗图像分割[J]. 安徽农业科学, 2012, 40(36): 17902-17903.

    Chi D X, Zhang W, Wang Y. Segmentation of rice seedling image based on EXG factor[J]. Journal of Anhui Agricultural Sciences, 2012, 40(36): 17902-17903.

[34] Meyer G E, Neto J C. Verification of color vegetation indices for automated crop imaging applications[J]. Computers and Electronics in Agriculture, 2008, 63(2): 282-293.

[35] Gonzalez RC, Woods RE. Digital image processing[M]. 3rd ed. Beijing: Publishing House of Electronics Industry, 2010: 479- 483.

[36] 张引. 基于空间分布的最大类间方差牌照图像二值化算法[J]. 浙江大学学报( 工学版), 2001( 03): 42-45+50.

    Engineering Science. 03): 42-45+50[J]. Zhang Y. License plate binarization algorithm based on analysis of the spatial distribution, maximum variance between clusters. Journal of Zhejiang University, 2001.

朱孟, 周忠发, 蒋翼, 黄登红. 基于可见光波段无人机遥感的火龙果精准识别方法[J]. 激光与光电子学进展, 2020, 57(14): 142801. Meng Zhu, Zhongfa Zhou, Yi Jiang, Denghong Huang. An Accurate Recognition Method of Pitaya Plants Based on Visible Light Band UAV Remote Sensing[J]. Laser & Optoelectronics Progress, 2020, 57(14): 142801.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!