激光与光电子学进展, 2020, 57 (14): 141004, 网络出版: 2020-07-24  

用于多光谱语义分割的LBP特征增强神经网络 下载: 549次

A Neural Network for Multi-Spectral Semantic Segmentation Based on LBP Feature Enhancement
作者单位
1 天津大学微电子学院, 天津 300072
2 天津市成像与感知微电子技术重点实验室, 天津 300072
摘要
为了提升多光谱图像语义分割的精度,提出了一种基于局部二值模式(LBP)特征增强的语义分割神经网络模型。该模型通过两个大小分别为3×3和5×5的LBP特征提取算子,对原始红外图像进行边缘信息提取,获得了边缘特征图。将原始RGB图像、红外图像和获得的LBP特征图输入到一个包含34层残差网络的模型中进行语义分割。实验结果表明,本文提出的基于LBP特征增强的神经网络模型,在RGB-Thermal数据集上取得了60.7%的平均准确率和51.9%的平均交并比,明显优于其他对比模型。同时在可视化结果上,本文模型的结果也更加清晰准确。
Abstract
In order to improve the accuracy of multi-spectral image semantic segmentation, a neural network model based on local binary pattern (LBP) feature enhancement is proposed. The model obtains two feature maps from a single infrared image by two LBP feature extraction operators with the size of 3×3 and 5×5, respectively. The RGB image, the infrared image, and the LBP feature maps are imported into a neural network model with a 34-layer residual network for semantic segmentation. The experimental results show that the proposed neural network model can achieve an average accuracy of 60.7% and an average intersection over union of 51.9% on the RGB-Thermal dataset. The results are superior to other comparative methods. At the same time, in the visualization results, the results of proposed model are also more clear and accurate.

1 引言

语义分割是计算机视觉中非常重要的研究方向,通过对图像中信息的分类,从像素级将图像划分成不同区域,每个区域分别代表一种特定的语义,进而让机器理解一张图像中所包含的内容。语义分割在自动驾驶[1]、智能医学图像处理[2]、大范围行人检测[3-4]、遥感[5]等领域有着十分广泛的应用[6]

语义分割是一个有挑战性的研究方向[7]。首先,传感器获得的图像在光照、角度等方面均存在非理想现象,易产生遮挡;其次,多种物体之间存在相似性,会导致误判。近年来,基于卷积神经网络的图像语义分割受到了越来越多研究者的重视[8]。2017年,Lin等[9]提出RefineNet,该网络在下采样过程中充分提取有效信息,达到了非常好的效果。2018年,郭呈呈等[10]提出了一种基于卷积神经网络特征和改进超像素匹配的图像语义分割算法,采用图像检索的方式提升了稀少类目标的分割精度。2020年程晓悦等[11]重点研究了膨胀卷积平滑和轻型上采样,有效压缩了神经网络的体量,实现了实时语义分割。上述针对可见光图像的语义分割方法,并不能直接用于多光谱语义分割问题。

在光照强度较低或存在较多干扰的环境下,普通相机很难获得清晰的图像,而红外图像传感器可以提供与可见光强度无关的稳定图像,但红外图像传感器不能捕获丰富的色彩信息。所以,基于红外和RGB图像的多光谱图像语义分割更适用于复杂环境,在自动驾驶、安防监测等方面有很强的研究价值。2017年Hazirbas等[12]提出FuseNet用以解决室内场景的多模态语义标注问题,并在相关数据集上获得了有竞争力的结果,但该方法仅在室内环境下表现优秀,应用场景单一。2017年,Ha等[13]在研究自动驾驶问题时提出一种多光谱图像分割的卷积神经网络结构(MFNet),提高了分割精度,并公开了RGB-Thermal数据集,但是该方法只是机械地将红外图像和RGB图像输入神经网络,在图像特征学习方面仍有提升的余地。2019年Sun等[14]提出了RTFNet,利用残差网络提取特征并设计了全新的解码器。该方法在利用50层及更多层残差网络作为特征提取模块时表现出色,但该模型体量庞大,实时性受限。

为了提升多光谱语义分割精度,拓展至室外场景,并通过特征增强减小神经网络体量大小,本文提出了一种用于RGB-红外多光谱语义分割的局部二值模式(LBP)[15]特征增强神经网络。利用LBP特征提取算子来提取红外图像的边缘特征,并结合34层的残差网络[16]设计语义分割网络,有效保障了语义分割的精度。

2 基本原理与本文工作

2.1 LBP

LBP是Ojala等[15]于1996年提出的经典的特征提取算子。LBP通过比较中心点与其周围八个点像素值的大小关系反映出当前中心点的特征,是一种计算量小,对像素变化非常灵敏的特征值提取算法。典型的LBP计算方式如图1所示。以中心点像素值为阈值,周围像素值大于中心点取1,小于中心点取0,从x轴正方向开始,按照逆时针方向以二进制赋予权重,最终将所有结果加起来,得到一个介于0到255的数值,代表当前点的LBP值。LBP获得的特征图像以灰度图形式显示,如图2所示。

图 1. LBP计算示意图

Fig. 1. Calculation diagram of LBP

下载图片 查看所有图片

图 2. LBP算法效果示意图。(a)原图;(b) LBP特征图

Fig. 2. Effect diagram of LBP algorithm. (a) Original image; (b) LBP feature image

下载图片 查看所有图片

其计算公式可以表示为

LLBP=n=072ns(xn-xλ),(1)s(k)=1,k00,k<0,(2)

式中:xλ代表当前像素点;xn代表在当前像素点周围的8个点的像素值;s(k)的作用是将差值大于0的情况取1,差值小于0的情况取0。

图2为LBP算法提取特征前后的图像,显然,LBP特征图可以很明显地反映图像中存在的边缘信息。

2.2 LBP卷积实现方法

随着近几年神经网络的飞速发展,有不少学者也在研究将LBP与卷积神经网络结合,但是这些结合的实质多数是独立的[17],没有将LBP处理和神经网络真正融合在一起。例如,先使用LBP算法处理图像再将图像输入到神经网络中。而本文则将LBP算法融入到卷积网络之中,通过卷积滤波核的形式实现了LBP算法。

当前神经网络多数基于张量搭建,想要对张量中的每一个元素进行操作是一件非常困难的事情,而LBP算法却需要对每一个像素进行操作,使得LBP在神经网络中的应用变得十分困难。本文根据LBP算法的原理和张量操作的特性设计了一种基于卷积滤波核的解决方案,如图3所示。

图 3. LBP在神经网络中的计算方式

Fig. 3. LBP calculation method in neural network

下载图片 查看所有图片

图3所示,以计算权重为27的差值为例。通过一个中心值为-1,在权重27的位置上为1、其他部分为0的3×3卷积滤波核对图像进行采样,可以获得中心点与权重点的差值,再通过一个映射函数,将负差值赋值为0,将正差值赋值为1,最后与权重相乘即可得到当前点与权重点的LBP结果。重复8次该操作,将全部结果相加,即可获得当前中心点的LBP值。实际操作中,由于(2)式需要张量中元素的值,而图像在输入神经网络前已经进行了像素归一化,所有点的归一化值均在0到1之间,所以这里可以采用ReLU函数代替(2)式作为激活函数。ReLU激活函数表示为

ReLU(k)=0,k<0k,k0(3)

基于上述内容,可以采用卷积滤波核的方式将LBP算法搭建入卷积神经网络中,使得整个系统更加流畅。

2.3 LBP特征增强的神经网络

本文根据LBP在特征提取方面的优势,设计了一个包含LBP特征增强的神经网络模型,实现RGB-红外多光谱语义分割。该网络结构如图4所示。

图 4. LBP特征增强神经网络结构

Fig. 4. Structure of LBP feature enhancement neural network

下载图片 查看所有图片

图 5. LBPplus算法的示意图

Fig. 5. Schematic diagram of the LBPplus algorithm

下载图片 查看所有图片

该模型主要包含三个部分:红外图像的LBP特征增强过程、残差网络[16]的特征提取过程和上采样重建图像过程。在LBP特征增强过程中,本文通过一次LBP算法和一次LBPplus算法,获得两张红外图像边缘信息的特征图。在输入残差网络之前将两张特征图与原始红外图像在通道维度上拼接,获得一个三通道的张量。而RGB图像已经是三个通道,色彩细节丰富,所以本文在设计时仅将LBP算法应用到红外图像中。

在该过程中,LBP算法与2.2中所述内容一致,即采用8个3×3的卷积滤波核完成8次大小比较,并计算激活后的加权和。而LBPplus算法则是对普通LBP的改进。图5左侧为LBPplus滤波核的示意图,其大小为5×5,图中黑色位置对应图像上的待采样点,8个灰色位置是要与中心点作比较的像素点位置,数值代表该点的权重。具体来说,图5右侧8个5×5的卷积核应用于LBPplus特征的提取之中,黑色点位置值为-1,灰色点依次赋值为1,白色点均为0,滤波核下方是该滤波核激活后的权重。8个卷积滤波操作后的加权和即为黑色点对应图像上像素点的LBP值。相对于LBP算法,LBPplus的感知域更大,可以提取大视野的特征。LBP与LBPplus相结合可以分别在大视野和小视野内提取特征。

特征提取过程中通过迁移学习,将一个经过预训练的34层残差网络(Res34)作为特征提取模块,基于此,本文将搭建的神经网络命名为LBP34。在LBP34的训练过程中,用于红外图像和RGB图像特征提取的两个残差网络各自独立优化,不会共享参数。

上采样重建图像过程中采用双线性插值的方式扩大特征图尺寸,每次插值操作后都将特征图的长和宽扩大一倍。双线性插值是一种常用的一阶插值方案,利用原图中相邻四个点的像素值确定插值后目标点的像素值。将扩大后的特征图用3×3卷积进行处理。并从残差网络中引出尺寸相同的特征图与上采样结果相加,将初始提取的特征传递到上采样过程中,以便于上采样过程中可以关注到原始图像的特征。

语义分割本质上是像素点的分类问题,所以在损失函数的选择上,本文采用交叉熵损失作为训练过程中的优化目标函数。

3 实验内容与分析

为了验证LBP特征增强的神经网络在多光谱语义分割中的有效性,本文选择了Ha等[13]在MFNet中公布的RGB-Thermal数据集来训练和测试所提出的网络结构,并与在引言中提出的三种先进的多光谱或多模态语义分割网络进行比较。

3.1 数据集与训练细节

RGB-Thermal数据集中包括1569对红外与可见光图像,其中有820对采集于白天,749对采集于夜晚。该数据集通过InfReC R500摄像机采集,所有图片的分辨率均为640 pixel×480 pixel。由于RGB-Thermal数据集面向的是自动驾驶任务,所以该数据集中的图片均为街景图像,内容包括自行车、路障、行人、机动车等,并将其他物体统一标注为背景。遵循MFNet的数据集划分方式,本文的实验设置中,训练集的一半是日间图像,另一半是夜间图像,在验证集中,日间图像与夜间图像同样各占一半,其余的图像为测试集。训练集、验证集、测试集的比例约为2∶1∶1。

训练中,本文采用了图像翻转的数据增强方式,在输入神经网络之前,图像中有50%的几率进行一次翻转,进而提升了数据多样性。所采用的Res34是在ImageNet[18]上经过预训练的网络,已经具备很强的特征提取能力,可以在RGB-Thermal数据集上直接开展训练。

本文提出的神经网络基于PyTorch搭建。神经网络的训练、验证和测试都是在一张NVIDIA 1080 Ti GPU上完成的。在训练过程中,根据GPU显存和训练优化考虑,批处理大小(Batchsize)为4,总训练共计70次全局迭代(Epoch)以达到神经网络的收敛。在最优化算法方面,本文依据RTFNet[14]中的超参数设计,采用包含动量的随机梯度下降(SGD)方法寻找最优解,初始的学习率为0.01,动量与权重衰减分别为0.9与0.0005,这也是神经网络领域相关文献中经常采用的参数设置方式。

3.2 实验结果分析

3.2.1 定量分析

基于上一节的训练集、验证集、测试集的比例,本文选择引言中介绍的FuseNet[12],MFNet[13]和RTFNet[14]三种研究多光谱和多模态语义分割的算法作为对比算法,并根据原始论文中的设置复现了MFNet与RTFNet50以及FuseNet。其中,MFNet与RTFNet50是针对RGB-红外语义分割问题的算法,RTFNet50采用了一个50层的残差网络作为特征提取模块。FuseNet关注的是RGB-D,即可见光与深度信息的多模态图像的语义分割。在复现FuseNet的过程中,用红外图像代替了原始的深度信息作为输入,在最大程度上保障了FuseNet实验结果的有效性。

表 1. RGB-Thermal数据集测试结果

Table 1. Test results on RGB-Thermal dataset%

CategoryRTFNet50 (Acc/IoU)MFNet (Acc/IoU)FuseNet (Acc/IoU)LBP34 (Acc/IoU)
Average50.3/43.541.1/36.551.6/47.160.7/51.9
Car91.1/84.372.9/60.976.8/73.789.7/83.2
Person76.4/66.160.2/53.467.7/62.474.2/65.7
Bike67.4/55.854.4/43.1365.6/54.572.3/59.4
Curve60.1/42.426.3/22.948.5/4057.6/41.5
Car stop38.7/30.111.9/9.4319.6/17.631.3/25.1
Guardrail1.1/0.60/00/016.4/4.0
Color cone4.11/3.1120.3/18.841.8/34.350.9/45.9
Bump14.5/11.425.2/23.545.2/43.754.6/44.3

查看所有表

表1为三种对比算法和本文提出的LBP34在RGB-Thermal数据集的测试集上所有测试结果的平均值,包括总体均值和每一个小类的均值。如表1所示,RGB-Thermal数据集中共有8个分类目标,其测试集中共有393对RGB-红外图像对,在测试集上的结果显示,LBP34拥有最高的均值,即在所有类别的分类精度(Acc)和交并比(IoU)均值上,LBP34有着显著的优势,在Acc上,相比第二名提升了约20%。

在具体分类上,LBP34在Bike、Guardrail、Color cone、Bump这四个类别上取得了最优结果。这四个类别中的待检测物体多数为在大环境下很容易被忽略小尺寸目标。实验结果验证了通过LBP提取边缘特征,加强了边缘信息,使得神经网络在进行语义分割的过程中更容易注意到尺寸相对较小的目标,这与LBP算法的原理一致。同时,虽然在另外四个类别上,LBP34的分割结果略低于RTFNet50,但是RTFNet50在下采样过程中采用了一个50层残差网络块用以特征提取,而LBP34仅采用了一个34层的残差网络块,体量上明显小于RTFNet50。相对于其他两组对比实验,LBP34的结果也有非常明显的优势。

根据数据集的采集环境,本文还对比了白天和夜晚四种不同方法的语义分割精度和交并比的平均值,实验结果见表2。从表2中可以看出,相比于另外三种算法,LBP34有着更高的分类精度和交并比。同时,三种对比算法的白天和夜晚实验结果相差并不大,而LBP34的夜晚分类效果要优于白天。这是由于在夜晚,红外图像传感器能捕获相对于可见光图像更多的有效信息,而本文提出的LBP特征增强正是针对红外图像进行的,也验证了LBP特征增强的有效性。

表 2. RGB-Thermal数据集白天和夜晚图像测试结果

Table 2. Test results on day and night images of RGB-Thermal dataset

CategoryDay(Acc/IoU)Night(Acc/IoU)
RTFNet5049.3/41.747.4/41.6
MFNet42.6/36.141.4/36.8
FuseNet50.7/44.247.5/44.6
LBP3455.2/45.857.4/50.7

查看所有表

3.2.2 可视化分析

图6为六组RGB-红外图像对的语义分割实验结果展示,纵向代表一组结果,其中图6(a)~(c)三组的原图拍摄于夜晚,图6(d)~(f)三组的原图拍摄于白天。图6的第一行是可见光摄像头拍摄的RGB图像;第二行是与之对应的红外(IR)图像;三种对比算法和本文提出的LBP34的结果依次在下方排列;最后一行是数据集提供的标签(GT)。

在夜间图像的分割结果中,对于图6(a),从GT和RGB图像中可以看出,图像中部有两个彩色锥体路障,红外图像中也依稀可见一个椎体。三种对比算法均没有识别出这两个路障,而LBP34中识别出了其中一个。此外,图6(a)左侧的行人在LBP34中的结果也具备更加清晰的边缘。同样的情况还有图6(c)中部偏右区域远处的行人,LBP34正确地感知到了这里存在的行人,并在结果中表达出来。虽然图6(b)GT中的弯道只有MFNet能检测出来,但是MFNet误检了车辆类别,而LBP34的结果在图6(b)上与另外两组结果相当。

图 6. RGB-Thermal数据集测试集部分可视化实验结果

Fig. 6. Some visual results of the testset from RGB-Thermal dataset

下载图片 查看所有图片

从日间图像的语义分割结果中不难看出,由于白天RGB图像中包含更多复杂的自然环境,同时红外图像中存在的干扰也更多,语义分割时较容易出现误检、漏检等问题。例如图6(d)中的一排行人,由于环境干扰较大,只有LBP34和MFNet能够检测出这些行人,同时LBP34的结果更清晰。此外,可以看到,对于图6(f)中的Curve分类,只有LBP34成功识别了此处存在着与马路分割的弯道。在这六组可视化结果中,LBP34的效果在综合评估上优于另外三种对比算法,代表着在全体测试集上,LBP34的结果更具有普遍性的优势,与定量分析一致。

为了更详细地描述LBP34在小尺度目标物体的识别和分割上的有效性,同时提供更多的可视化结果展示,图7提供了一个更加细致的可视化结果分析,所有需要特别关注的区域已经在图像中用矩形框强调。

图7(a)中有一个彩色锥体,虽然其他算法也意识到这里存在一个物体,但是在对比算法的结果中没能完全描绘出这个彩色锥体,有明显的漏检和误检出现。在LBP34的结果中,这个彩色锥体得到了更明确的分割。由图7(b)原图和GT可以看出,环境中存在与马路分割的弯道,LBP34将这个弯道在结果中分割出来。另外两组图像是日间图像,其中图7(c)的中间矩形框内有大量的自行车和车挡,其中车挡的尺寸很小,而且在红外图像中相对更明显一些,对比算法都没能将车挡识别和分割出来,而LBP34则几乎将这几个车挡都分割出来。在图7(d)的左侧同样存在一个非常不明显的车挡,LBP34的结果中识别出了一部分,而其他对比算法却根本注意不到这里的车挡;此外,图像右侧还有一个尺度较小的行人,LBP34也将这个行人识别并分割出来。

定量分析和可视化分析都验证了LBP34在多光谱语义分割任务上的优势。更进一步的分析证明,LBP34能够对尺度较小,但是在红外图像中具有比较清晰边界的物体实现更加精确的检测,这与LBP算法可以实现边缘特征提取的特性相匹配。

图 7. 更多细节的可视化结果

Fig. 7. More visual results in detail

下载图片 查看所有图片

4 结论

本文提出了一种基于LBP算法的特征增强方法,基于此方法搭建了神经网络并用于多光谱语义分割。LBP算法被应用于增强红外图像的边界特征,并拓宽了红外图像通道数。LBP特征增强的神经网络在特征提取模块仅采用了34层残差网络,所达到的效果优于该研究领域的相关算法。本文从准确度和交并比的定量比较以及语义分割结果可视化的定性分析两方面验证了LBP34在语义分割方面的优越性。

参考文献

[1] 郭继舜. 面向自动驾驶的语义分割和目标检测技术[D]. 成都: 电子科技大学, 2018: 1- 5.

    Guo JS. Semantic image segmentation and object detection in autonomous-driving system[D]. Chengdu: University of Electronic Science and Technology of China, 2018: 1- 5.

[2] 黄星奕, 丘子明, 许燕. 基于深度监督全卷积神经网络的MRI脑图像语义分割算法[J]. 北京生物医学工程, 2019, 38(3): 277-282.

    Huang X Y, Qiu Z M, Xu Y. Semantic segmentation algorithm for MRI brain image based on deeply supervised fully convolutional network[J]. Beijing Biomedical Engineering, 2019, 38(3): 277-282.

[3] 刘丹, 马同伟. 结合语义信息的行人检测方法[J]. 电子测量与仪器学报, 2019, 33(1): 54-60.

    Liu D, Ma T W. Pedestrian detection method based on semantic information[J]. Journal of Electronic Measurement and Instrumentation, 2019, 33(1): 54-60.

[4] 伍鹏瑛. 基于卷积神经网络的真实场景下行人检测研究[D]. 长沙: 长沙理工大学, 2018: 5- 8.

    Wu PY. Research on pedestrian detection in real scene based on convolutional neural network[D]. Changsha: Changsha University of Science & Technology, 2018: 5- 8.

[5] 朱天佑, 董峰, 龚惠兴. 基于二值语义分割网络的遥感建筑物检测[J]. 光学学报, 2019, 39(12): 1228002.

    Zhu T Y, Dong F, Gong H X. Remote sensing building detection based on binarized semantic segmentation[J]. Acta Optica Sinica, 2019, 39(12): 1228002.

[6] 张祥甫, 刘健, 石章松, 等. 基于深度学习的语义分割问题研究综述[J]. 激光与光电子学进展, 2019, 56(15): 150003.

    Zhang X F, Liu J, Shi Z S, et al. Review of deep learning-based semantic segmentation[J]. Laser & Optoelectronics Progress, 2019, 56(15): 150003.

[7] 王嫣然, 陈清亮, 吴俊君. 面向复杂环境的图像语义分割方法综述[J]. 计算机科学, 2019, 46(9): 36-46.

    Wang Y R, Chen Q L, Wu J J. Research on image semantic segmentation for complex environments[J]. Computer Science, 2019, 46(9): 36-46.

[8] 王恩德, 齐凯, 李学鹏, 等. 基于神经网络的遥感图像语义分割方法[J]. 光学学报, 2019, 39(12): 1210001.

    Wang E D, Qi K, Li X P, et al. Semantic segmentation of remote sensing image based on neural network[J]. Acta Optica Sinica, 2019, 39(12): 1210001.

[9] Lin GS, MilanA, Shen CH, et al. RefineNet: multi-path refinement networks for high-resolution semantic segmentation[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017. Honolulu, HI. IEEE, 2017: 1925- 1934.

[10] 郭呈呈, 于凤芹, 陈莹. 基于卷积神经网络特征和改进超像素匹配的图像语义分割[J]. 激光与光电子学进展, 2018, 55(8): 081005.

    Guo C C, Yu F Q, Chen Y. Image semantic segmentation based on convolutional neural network feature and improved superpixel matching[J]. Laser & Optoelectronics Progress, 2018, 55(8): 081005.

[11] 程晓悦, 赵龙章, 胡穹, 等. 基于膨胀卷积平滑及轻型上采样的实时语义分割[J]. 激光与光电子学进展, 2020, 57(2): 021017.

    Cheng X Y, Zhao L Z, Hu Q, et al. Real-time semantic segmentation based on dilated convolution[J]. Laser & Optoelectronics Progress, 2020, 57(2): 021017.

[12] HazirbasC, Ma LN, DomokosC, et al.FuseNet: incorporating depth into semantic segmentation via fusion-based CNN architecture[M] ∥Computer Vision-ACCV 2016. Cham: Springer International Publishing, 2017: 213- 228.

[13] Ha QS, WatanabeK, KarasawaT, et al. MFNet: towards real-time semantic segmentation for autonomous vehicles with multi-spectral scenes[C]∥2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), September 24-28, 2017. Vancouver, BC. IEEE, 2017: 5108- 5115.

[14] Sun Y X, Zuo W X, Liu M. RTFNet: RGB-thermal fusion network for semantic segmentation of urban scenes[J]. IEEE Robotics and Automation Letters, 2019, 4(3): 2576-2583.

[15] Ojala T, Pietikäinen M, Harwood D. A comparative study of texture measures with classification based on featured distributions[J]. Pattern Recognition, 1996, 29(1): 51-59.

[16] He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016. Las Vegas, NV, USA. IEEE, 2016: 770- 778.

[17] 徐杰, 孙超, 郭春赫. 实时系统下LBP与CNN结合的人脸识别方法[J]. 黑龙江科技大学学报, 2018, 28(6): 692-696.

    Xu J, Sun C, Guo C H. Face recognition based on combination of LBP and CNN in real-time system[J]. Journal of Heilongjiang University of Science and Technology, 2018, 28(6): 692-696.

[18] DengJ, DongW, SocherR, et al. ImageNet: a large-scale hierarchical image database[C]∥2009 IEEE Conference on Computer Vision and Pattern Recognition, June 20-25, 2009. Miami, FL. IEEE, 2009: 248- 255.

史兴萍, 徐江涛, 蒋永唐, 秦书臻, 路凯歌. 用于多光谱语义分割的LBP特征增强神经网络[J]. 激光与光电子学进展, 2020, 57(14): 141004. Xingping Shi, Jiangtao Xu, Yongtang Jiang, Shuzhen Qin, Kaige Lu. A Neural Network for Multi-Spectral Semantic Segmentation Based on LBP Feature Enhancement[J]. Laser & Optoelectronics Progress, 2020, 57(14): 141004.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!