激光与光电子学进展, 2020, 57 (18): 181011, 网络出版: 2020-09-02  

基于BOF图像检索算法的变电站设备图像分类 下载: 898次

Image Classification of Substation Equipment Based on BOF Image Retrieval Algorithm
作者单位
1 太原理工大学电气与动力工程学院电力系统运行与控制山西省重点实验室, 山西 太原 030024
2 华北电力大学电气与电子工程学院, 北京 102206
摘要
基于BOF(Bag of features)图像检索算法对电气设备图像进行分类,首先,通过加速鲁棒特征(SURF)算法寻找特征点位置,构造高维特征描述算子对特征进行描述和统计。然后,利用K-means聚类算法处理特征描述算子,得到独立的视觉词汇并汇总为特定数目的码书。将码书中的特征描述算子进行量化和加权统计,用特征向量直方图表示整个图像。最后,用训练集图像的高维特征向量进行机器学习,对未知图像进行快速准确分类。将自然光条件下拍摄的电气设备图像和电气设备工作状态下的红外图像作为两个实验样本集进行分类测试,结果表明,该算法可对不同图像集实现快速准确分类,准确率可达95.59%。
Abstract
This paper proposes a BOF(bag of features image) retrieval algorithm to classify electrical equipment images. First, the location of feature points is determined by speed up robust features (SURF) algorithm, and a high-dimensional feature description operator is constructed to describe and count the features. Then, the K-means clustering algorithm is used to deal with the feature description operators, and the independent visual vocabularies are collected into a specific number of codebooks. The feature description operators in codebooks are quantified and weighted, and the eigenvector histogram is used to represent the entire image. Finally, the high-dimensional feature vectors of the training set images are used for machine learning, and the unknown images are classified quickly and accurately. Electrical equipment images under natural light conditions and infrared images under the working conditions of electrical equipment are taken as two experimental sample sets for classification test. The results show that the algorithm can classify different image sets quickly and accurately with the highest accuracy of 95.59%.

1 引言

随着智能监测设备在变电站中的广泛使用,电力设备图像的获取变得越来越容易,但是,在自然光下拍摄的图像背景复杂凌乱[1-3],而红外图像的边界较为模糊[4-5]。因此,需要运用一种特殊的图像识别技术,对各种设备采集到的图像进行快速、准确的分类,以便在电气设备出现故障时进行精准定位和迅速解决。

图像识别的关键是特征提取,Lin等[6]提取了人体头部、躯干和腿部的HSV(Hue, Saturation, Value)颜色直方图,并用加权算法计算两个人之间的相似距离,用两个人图像特征区域的相似度对特征区域进行分类识别。还可以通过基于纹理[7]、方向梯度直方图[8-11]等特征提取方法,提取待测图像与训练图像的特征,通过相似度判断匹配效果。在图像分类领域中,一般用直接距离法和机器学习法进行特征相似度度量。李红丽等[12]通过提取目标区域的边缘梯度和彩色通道特征,将各项系数相融合并输入混合核分类模型,提高了单核支持向量机(SVM)的分类精度。Jhuria等[13]提取不同种类水果的颜色、形状和纹理等基本特征后,利用神经网络模型对不同目标进行分类。对于电气设备红外图像的故障检测与识别,卢彬等[14]结合尺度不变特征变换(SIFT)描述算子与K-means++算法对避雷器进行精确定位,然后用线性谱聚类方法分割出目标区域,通过分析红外图像特征对电气设备进行故障判断。刘齐等[15]提取了电气设备红外图像的灰度值,通过相对温差法划分出高温区域,并计算故障区域的面积和质心,得到红外图像的特征,以此识别与判断电气设备的故障。

BOF (Bag of features)图像检索算法[16]来源于词袋(BOW)文档匹配算法,其思想简单,既可保留图像目标特征的不变性,还可加强全部特征的鲁棒性,近年来在计算机视觉领域得到了广泛应用。BOF算法首先需要提取图像的BOF图像块[17],采用SIFT等特征提取算法得到高维特征向量描述符,将聚类处理后表示图像的关键词汇总为BOF码书[18-19],最后设计分类器[20]。传统的SIFT算法在提取边缘较为光滑的目标特征和模糊图像时检测特征点较少、鲁棒性不足、 实时性较差,而将聚类方法和分类器结合会导致分类时间较长且分类精度较差。

针对上述问题,本文提出了一种用于自然光和红外图像的BOF图像检索算法,对巡检机器人采集到的电气设备图像进行分类。由于提取的加速鲁棒特征(SURF)维度较低,计算量较小,且可以对目标区域实现精确定位,保留目标的局部和全局特征。因此利用SURF算法生成图像的特征描述向量,然后随机选取高维描述算子集合的聚类中心,运用K-means聚类算法得到各类图像对应的码书。在语义频率和逆向文件频率的基础上,增加软加权方法对词汇进行描述。K最近邻(KNN)算法作为有监督学习分类算法,对样本集的类别数目比较敏感,可用于各类有交叉样本的图像集中。因此,设计了多种KNN分类模型训练图像数据,合理设置分类器的参数,得到最佳分类模型,完成电气设备图像的分类。

2 基本原理

本算法的分类流程如图1所示。首先,用高维特征向量集合描述各类图像的目标区域,用K-means聚类算法将特征描述算子集合聚类生成码书。其次,在语义频率和逆向文件频率的基础上,增加软加权方法对词汇进行描述,得到不同类别图像的特征向量直方图。最后,将高维特征向量通过不同类别的KNN分类器,对未知图像集实现分类识别,并对比不同分类器的分类时间和分类准确度。

图 1. 本算法的流程图

Fig. 1. Flow chart of our algorithm

下载图片 查看所有图片

2.1 SURF特征描述

2.1.1 构建Hessian矩阵

SURF算法的核心是利用Hessian矩阵提取图像特征点,设图像中(x,y)处的像素点函数为f(x,y),对应的Hessian矩阵为

H[f(x,y)]=2f(x,y)x22f(x,y)xy2f(x,y)xy2f(x,y)y2(1)

Hessian矩阵的判别式可表示为

det(H)=2f(x,y)x22f(x,y)y2-2f(x,y)xy2,(2)

式中,det(H)为H的特征值,根据特征值的正负将所有像素点划分为极值点和非极值点。由于特征点的位置与设置的尺度大小无直接关系,因此,可先将图像进行高斯滤波,再构造Hessian矩阵,可表示为

g(σ)=12πσ2exp[-(x2+y2)/2σ2],(3)Lxx(x,y,σ)=2g(σ)x2f(x,y),(4)Lxy(x,y,σ)=2g(σ)xyf(x,y),(5)Lyy(x,y,σ)=2g(σ)y2f(x,y),(6)

式中,􀱋为卷积符号,g(σ)为高斯函数,σ为高斯函数的方差,图像在尺度σ下,Lxx(x,y,σ)、Lyy(x,y,σ)分别为高斯函数对xy的二阶导数与图像上任意点(x,y)像素函数的卷积,Lxy(x,y,σ)为高斯函数对xy的混合偏导数与图像上任意点(x,y)像素函数的卷积。

在尺度σ上的Hessian矩阵可表示为

H(x,y,σ)=Lxx(x,y,σ)Lxy(x,y,σ)Lxy(x,y,σ)Lyy(x,y,σ)(7)

2.1.2 确定特征点及其主方向

利用构建的Hessian矩阵对图像中的像素点进行求导,并将得到的结果与其3×3邻域内所有点的像素值大小进行对比,将每个3×3邻域内像素值最大的点设置为初步特征描述点。

为了确定特征点的主方向,以确定的特征点为圆心,6σ为半径,画一个圆心角为60°的扇形区域。将该区域内所有像素点在x轴和y轴方向分解,计算其边长为4σ的Haar小波响应。用得到的响应值乘以高斯权重系数,将扇形区域中所有响应矢量相加,最后用相加矢量模最大的方向作为该特征点的主方向。

2.1.3 构造特征点描述算子

将确定的特征点作为中心,画一个边长为20σ的正方形方框,将该方框等分为16个边长为5σ的子区域,利用每个子区域内像素x轴和y轴的Haar小波特征dxdy构造4维矢量

v=(dx,dx,dy,dy)(8)

对所有特征点进行处理,得到4×(4×4)=64维的特征向量,特征向量维数与SIFT算法的128维相比减少了一半,提高了SURF算法的速度和鲁棒性。

2.2 特征聚类

得到各类图像的高维特征描述算子后,随机选取聚类中心,通过K-means聚类算法将图像的特征向量进行快速聚类,并通过多次随机选择不同的初始聚类中心进行特征聚类,选取较好的聚类结果构建码书,以解决容易陷入局部收敛的问题,提高分类性能。聚类中心又被称为图像特征词汇,词汇的集合统称为码书。

K-means聚类算法是一种常见的分区算法,主要通过对函数求极值获得反复迭代计算的调整规则。用欧氏距离定量判断相似度的大小,用误差平方和准则、加权平均平方距离和准则共同评价聚类稳定性。具体方法:首先将数据集分到k个相互排斥的集群中,然后返回每个集群对应的索引,最后确定稳定的聚类输出。与分层聚类不同,均值聚类是在实际观测集上进行,同时创建一个单一级别的聚类,在数据量较大的分类场景中,K-means均值聚类具有更大的优势。

假定图像特征向量的集合为A,k为K-means聚类后得到的特征向量总数。集合A包含s个样本,被聚类成k个子集,分别为A1,…,Ae,…,Ak,每个子集中包含s1,…,se,…,sk个样本,其中e=1,2,…,k。误差平方和准则可表示为

Jc=e=1kg=1seag-me2,(9)me=1seg=1seag,(10)

式中,‖‖为任意样本点与中心点之间的距离,me为第k个子集中所有样本点的平均值,即第k个子集的中心点,ag为子集Ae中的任意样本点,g=1,2,…,se,Jc为样本和集合中心的函数,描述s个样本聚合成k个类型时,所产生的总误差平方和。在样本集A确定时,Jc取决于种类数目和样本的分类情况。该准则适用于训练集样本较密集且样本间差异较小的数据集。

加权平均平方距离和准则可表示为

Jl=e=1kPeSe*,(11)Pe=ses,(12)Se*=2sese-1agAeahAeag-ah2,(13)

式中,PeAe的先验概率,可通过样本数目se和样本总和s的比值来估计, Se*Ae中任意两个样本距离平方的平均值,agahAe中任意两个样本,且hg,Ae中任意两个样本的组合共有 se(se-1)2个。

2.3 词汇加权方法

通过K-means聚类算法得到码书后,对码书中所有的视觉词汇进行加权统计。常用的加权方法有语义频率(TF)和逆向文件频率(IDF),实验在此基础上增加了软加权法,用来处理视觉词汇。

TF表示词汇在确定图像中出现的次数,为防止同一词汇在大尺寸图像中出现的词频大于小尺寸图像,需要对TF进行正规化处理,可表示为

XTFε,i=wε,ikwk,i,(14)

式中,wε,i为视觉词汇ε在图像i中出现的次数, kwk,i为图像i中所有视觉词汇出现的次数和,ε=1,2,…,k

IDF是衡量视觉词汇普遍性的准则,特定词汇ε的IDF可表示为

XIDFε=lgo1+wε,(15)XTFIDFε=XTFε,i×XIDFε,(16)

式中,o为数据集中图像的数量,wε为视觉词汇ε在所有数据集图像中出现的次数,加1是为了防止ε在所有图像中均不出现。通过(16)式将TF与IDF结合得到TF-IDF,用于过滤常见词汇,保留重要词汇。

软加权方法假设码书中包含k个图像通过K-means聚类后得到的特征向量数目视觉词汇,用k维向量T描述BOF,T=[t1,…,tε,…,tk],每个分量tε表示图像中视觉词汇ε映射到聚类中心点的频率,可表示为

tε=n=1Nz=1Mε12n-1Xsim(ε,z),(17)

式中,Mε为视觉词汇ε的兴趣点数,Xsim(ε,z)为视觉词汇ε和兴趣点z的相似度。实验采用N=4进行软加权,以降低文本检索领域迁移造成较大的误差。

2.4 KNN分类算法

KNN分类算法先给定包含所有图像特征词汇的集合P和距离函数,在标准图像特征词汇的集合Q中找到对应于集合P中最近的r个点。确定每个查询点在各自邻域中最近邻的类,利用加权投票法确定图像的最合适类别。

给定o×k的数据矩阵PQ,其行向量分别为p1,…,pi,…,poq1,…,qj,…,qo,表示图像对应的BOF特征词汇加权后的描述向量,piqj可用距离标准进行度量。用标准欧氏距离设置r分别为1、10、100的3个KNN分类器,标准欧氏距离可表示为

lij=ε=1kp-q2,(18)

式中,ε=1,2,…,k,k为每张图像的BOF特征词汇总数,p为向量pi的第ε列元素,q为向量qj的第ε列元素,lij为向量piqj间的距离。对于r=10的KNN分类器,立方距离lij可表示为

lij=ε=1kp-q33(19)

用Cosine距离设置r=10的KNN分类器,则向量piqj之间的距离可表示为

lij=1-piqTj(pipTi)(qjqTj),(20)

式中, piT为向量pi的转置, qjT为向量qj的转置,pipiT为向量pi模的平方,qjqjT为向量qj模的平方。

3 实验仿真与讨论

将某变电站作为实际应用场景,所有实验图像均为巡检机器人采集的图像,包含自然光照射下的图像和红外探测仪拍摄的红外图像,将这些图像分为两个子集,其中,一个子集包含50张变压器触头、电流互感器、电缆端口和隔离开关的自然光图像;另一个子集包含相同类型电气设备的红外图像。按照4∶1的比例将图像集划分为训练集和测试集。提取图像的SURF特征,得到高维特征描述算子。用K-means聚类算法对特征向量聚类,得到大小为250的码书,将每张训练图像的SURF特征映射到码书中,统计特征出现的频率。将所有训练集图像描述成250维特征向量直方图,即BOF特征。对KNN模型设置不同的距离度量标准及r,对训练集图像的BOF特征进行训练。最后将测试集图像的BOF特征输入训练好的分类模型中,实现图像分类,实验均在MatlabR2018b环境下进行。

3.1 图像特征提取

输入红外图像训练集并进行滤波处理后,分别提取160张训练图像的SIFT和SURF特征,两种算法的提取效率和时间如表1所示。SIFT算法共提取12364个特征,耗时1.8 s。SURF算法共提取7259个特征,耗时1.2 s,这表明SURF算法的运行效率更高。

表 1. SIFT和SURF算法的提取效率

Table 1. Extraction efficiency of SIFT and SURF algorithms

AlgorithmFeature pointRunning time /s
SIFT123641.8
SURF72591.2

查看所有表

以红外图像训练集中的隔离开关与电缆端头图像为例,对图像进行灰度化处理后提取的SURF特征点如图2所示。其中,十字符号表示特征点位置,圆圈表示特征区域。可以发现,SURF特征点集中分布在电气设备上,而边角位置和背景区域内几乎没有SURF特征点集。这表明SURF算法可在提取绝大多数目标物特征的同时忽略背景区域,缩短分类时间,实用性较强。

图 2. SURF算法的特征点提取。(a)隔离开关;(b)电缆端头

Fig. 2. Feature point extraction of SURF algorithm. (a) Isolation switch; (b) cable port

下载图片 查看所有图片

保留每类图像经SURF算法提取的前80%个特征,由于隔离开关的特征量最少,仅有869个,因此保留其他类别中最强的869个特征,特征总数为4×869=3476。用K-means聚类算法创建大小为250的码书。设置集群数量k=250,经过34次迭代(约0.06 s)收敛。每张训练图像可描述为一个250维的直方图向量,即BOF特征。

红外图像集中每类电气设备映射在码书中的BOF特征如图3所示。其中图3(a1)~图3(d1)为不同电气设备的红外图像,图3(a2)~图3(d2)为各类设备对应的特征统计直方图,横坐标为图像的视觉词汇,纵坐标为视觉词汇映射到聚类中心的频率。可以发现,不同电气设备对应的BOF特征图中的视觉词汇分布有明显区别,这表明可通过BOF特征对不同电气设备的图像进行分类。

图 3. 红外图像以及对应的BOF特征图。(a)变压器触头;(b)电流互感器;(c)电缆端头;(d1)隔离开关

Fig. 3. Infrared image and corresponding BOF feature image. (a) Transformer contact; (b) current transformer; (c) cable port; (d) isolation switch

下载图片 查看所有图片

3.2 图像分类

用距离的平方反比函数作为权重函数,可在一定程度上消除噪声对分类结果的影响。用欧氏距离作为度量距离,对r=10的KNN分类器添加权重函数,形成新的分类器并对相同的测试图像进行分类。分类过程中,未知图像的词汇与码书中的视觉词汇相似度分别采用欧氏距离、余弦距离、立方距离和加权距离进行度量。通过交叉验证确定r的取值范围,利用欧氏距离标准,将r=1,10,100的3个KNN分类器,分别称为Fine KNN、Medium KNN、Coarse KNN分类器。利用立方距离标准,设置r=10的Cubic KNN分类器;利用Cosine距离标准,设置r=10的Cosine KNN分类器。对欧氏距离进行平方反比函数加权,设置r=10的Weighted KNN分类器,分类器的预测速度和模型参数如表2所示。

对红外图像训练集进行KNN分类,6个分类器对应的分类结果如图4所示。可以发现,Cosine KNN和Weighted KNN的训练准确度较高,Cosine KNN训练准确度最高,平均准确度可达到95.5%,Weighted KNN的平均训练准确度接近90%。 Fine KNN和Medium KNN的训练准确度次之,平均准确度均超过85%。Coarse KNN的训练结果最差,这表明Coarse KNN分类器不适合实验中的图像分类场景。

表 2. 分类器参数

Table 2. Classifier parameters

ClassifierPrediction speedClassification model setting
Distance standardNumber of neighboring samples
Fine KNNmediumEuclidean distance1
Medium KNNmediumEuclidean distance10
Coarse KNNmediumEuclidean distance100
Cosine KNNmediumcosine distance10
Cubic KNNslowcubic distance10
Weighted KNNmediumdistance weight10

查看所有表

图 4. 不同KNN模型的分类结果。(a) Fine KNN;(b) Medium KNN;(c) Coarse KNN;(d) Cosine KNN;(e) Cubic KNN;(f) Weighted KNN

Fig. 4. Classification results of different KNN models. (a) Fine KNN; (b) Medium KNN; (c) Coarse KNN; (d) Cosine KNN; (e) Cubic KNN; (f) Weighted KNN

下载图片 查看所有图片

测试集图像的最终分类结果如图5所示。若识别正确,则在图像上方标出实际类型和预测类型一致,如图5(a)所示。若识别错误,则标出的实际类型和预测类型不同,如图5(b)所示。

图 5. 测试集图像的分类结果。(a)正确;(b)错误

Fig. 5. Classification results of images in the test set. (a) Correct; (b) wrong

下载图片 查看所有图片

对160张自然光图像和红外图像进行KNN训练后,通过不同分类器得到的分类准确率如表3所示。其中,序号1和2分别表示用本算法和仅使用TF-IDF频率加权方法对红外图像进行BOF特征编码;序号3和4分别表示用本算法和仅使用TF-IDF频率加权方法对自然光图像进行BOF特征编码。可以发现,本算法使用的编码方式比仅使用TF-IDF频率加权方法的分类准确率提高了约2个百分点;本算法与Cosine KNN分类器相结合对红外热图像的分类准确率最高为95.59%,对自然光图像的分类准确率较低,但也超过90%;Fine KNN和Cosine KNN的分类准确率较高,可实现对大量图像的准确分类,Coarse KNN的分类效果较差,可能是分类器参数设置不合理造成的。

表 3. 不同图像的分类准确率

Table 3. Classification accuracy of different imagesunit: %

ClassifierClassification accuracy
1234
Fine KNN94.1891.1892.1290.12
Medium KNN94.1191.1292.1290.55
Coarse KNN25.0025.0033.3333.33
Cosine KNN95.5993.9492.4790.71
Cubic KNN92.6590.1289.9488.12
Weighted KNN91.1889.5591.1889.29

查看所有表

表4为所有图像从特征提取到分类完成所需的时间,可以发现,本算法使用的编码方式比仅使用TF-IDF频率加权方法约慢0.2 s;本算法对红外图像的分类速度较快,最快可利用Weighted KNN分类器在6.04 s内实现分类,而对自然光图像的分类速度相对较慢,大约10 s可以完成40张电气设备图像的分类;对于相同的图像集,Weighted KNN和Cosine KNN的分类速度较快,Cubic KNN分类速度相对较慢。Cosine KNN的分类器在分类准确度和分类速度方面效果较好,更适合对实验中的图像进行分类。

表 4. 不同图像的分类时间

Table 4. Classification time of different imagesunit: s

ClassifierClassification time
1234
Fine KNN8.198.0410.219.98
Medium KNN8.248.0910.049.91
Coarse KNN9.269.0910.6710.55
Cosine KNN7.717.679.219.11
Cubic KNN10.3610.1811.5211.39
Weighted KNN6.045.959.869.71

查看所有表

综上所述,本算法对红外图像的分类效果优于自然光图像,原因是自然光条件下拍摄的图像背景复杂,导致特征提取误差较大。且现阶段对变电站设备采集的图像并不标准,从而影响分类的准确性和效率。

4 结论

针对变电站中自动采集设备拍摄和存储的大量电力设备图像,提出图像检索算法与KNN分类器相结合的图像分类方法。与现有方法相比,本算法提取特征的速度较快,同时处理多张图像时鲁棒性较强。采用随机选取代替手动指定聚类中心的K-means聚类算法构造码书,描述视觉词汇时增加了软加权法,使各类图像的码书能最大限度地保留特征。最后通过训练不同KNN分类器,实现对未知图像的快速准确分类,实验结果表明,Cosine KNN分类器更适用于变电站中电气设备图像的分类识别。接下来的工作中,还需要找到足够大的训练集,并对分类模型进行合理设置,使分类效率和准确率更高。

参考文献

[1] 左国玉, 马蕾, 徐长福, 等. 基于跨连接卷积神经网络的绝缘子检测方法[J]. 电力系统自动化, 2019, 43(4): 101-108.

    Zuo G Y, Ma L, Xu C F, et al. Insulator detection method based on cross-connected convolutional neural network[J]. Automation of Electric Power Systems, 2019, 43(4): 101-108.

[2] 赵立明, 叶川, 张毅, 等. 非结构化环境下机器人视觉导航的路径识别方法[J]. 光学学报, 2018, 38(8): 0815028.

    Zhao L M, Ye C, Zhang Y, et al. Path recognition method of robot vision navigation in unstructured environments[J]. Acta Optica Sinica, 2018, 38(8): 0815028.

[3] 陈安伟, 乐全明, 张宗益, 等. 基于机器人的变电站开关状态图像识别方法[J]. 电力系统自动化, 2012, 36(6): 101-105.

    Chen A W, Yue Q M, Zhang Z Y, et al. An image recognition method of substation breakers state based on robot[J]. Automation of Electric Power Systems, 2012, 36(6): 101-105.

[4] 黄乐, 吴功平, 叶旭辉. 输电线巡检机器人弱光条件下的障碍物识别研究[J]. 光学学报, 2018, 38(9): 0915006.

    Huang L, Wu G P, Ye X H. Obstacle identification under low-light conditions of transmission line inspection robot[J]. Acta Optica Sinica, 2018, 38(9): 0915006.

[5] 陈跃伟, 彭道刚, 夏飞, 等. 基于区域生长法和BP神经网络的红外图像识别[J]. 激光与红外, 2018, 48(3): 401-408.

    Chen Y W, Peng D G, Xia F, et al. Infrared image recognition based on region growing method and BP neural network[J]. Laser & Infrared, 2018, 48(3): 401-408.

[6] Lin G, Yang B, Zhang W. Human tracking in camera network with non-overlapping FOVs[J]. Journal of Southeast University (English Edition), 2012, 28(2): 156-163.

[7] 席志红, 侯彩燕, 袁昆鹏, 等. 基于深层残差网络的加速图像超分辨率重建[J]. 光学学报, 2019, 39(2): 0210003.

    Xi Z H, Hou C Y, Yuan K P, et al. Super-resolution reconstruction of accelerated image based on deep residual network[J]. Acta Optica Sinica, 2019, 39(2): 0210003.

[8] 徐渊, 许晓亮, 李才年, 等. 结合SVM分类器与HOG特征提取的行人检测[J]. 计算机工程, 2016, 42(1): 56-60, 65.

    Xu Y, Xu X L, Li C N, et al. Pedestrian detection combining with SVM classifier and HOG feature extraction[J]. Computer Engineering, 2016, 42(1): 56-60, 65.

[9] 周培培, 丁庆海, 罗海波, 等. 视频监控中的人群异常行为检测与定位[J]. 光学学报, 2018, 38(8): 0815007.

    Zhou P P, Ding Q H, Luo H B, et al. Anomaly detection and location in crowded surveillance videos[J]. Acta Optica Sinica, 2018, 38(8): 0815007.

[10] Barinova O, Lempitsky V, Kholi P. On detection of multiple object instances using Hough transforms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(9): 1773-1784.

[11] DalalN, TriggsB. Histograms of oriented gradients for human detection[C]∥2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), June 20-25, 2005, San Diego, CA, USA. New York: IEEE, 2005: 886- 893.

[12] 李红丽, 许春香, 马耀锋. 基于多核学习SVM的图像分类识别算法[J]. 现代电子技术, 2018, 41(6): 50-52, 56.

    Li H L, Xu C X, Ma Y F. An image classification and recognition algorithm based on multi-kernel learning SVM[J]. Modern Electronics Technique, 2018, 41(6): 50-52, 56.

[13] JhuriaM, KumarA, BorseR. Image processing for smart farming: detection of disease and fruit grading[C]∥2013 IEEE Second International Conference on Image Information Processing (ICIIP-2013), December 9-11, 2013, Shimla, India. New York: IEEE, 2013: 521- 526.

[14] 卢彬, 朱海峰, 谷振富, 等. 基于红外图像的避雷器故障检测方法[J]. 红外, 2018, 39(1): 19-23.

    Lu B, Zhu H F, Gu Z F, et al. Detection method of arrester fault based on infrared images[J]. Infrared, 2018, 39(1): 19-23.

[15] 刘齐, 王茂军, 高强, 等. 基于红外成像技术的电气设备故障检测[J]. 电测与仪表, 2019, 56(10): 122-126, 152.

    Liu Q, Wang M J, Gao Q, et al. Fault detection of electrical equipment based on infrared imaging technology[J]. Electrical Measurement & Instrumentation, 2019, 56(10): 122-126, 152.

[16] CsurkaG, DanceC, FanL, et al. Visual categorization with bags of keypoints[M] ∥Advances in Cryptology-CRYPTO 2004: Lecture Notes in Computer Science 3152. Prague, Czech Republic: Springer Verlag, 2004: 59- 74.

[17] Lin W C, Tsai C F, Chen Z Y, et al. Keypoint selection for efficient bag-of-words feature generation and effective image classification[J]. Information Sciences, 2016, 329: 33-51.

[18] Li T, Mei T, Kweon I S, et al. Contextual bag-of-words for visual categorization[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2011, 21(4): 381-392.

[19] Li Q, Zhang H G, Guo J, et al. Improving bag-of-words scheme for scene categorization[J]. The Journal of China Universities of Posts and Telecommunications, 2012, 19: 166-171.

[20] GallJ, LempitskyV. Class-specific Hough forests for object detection[C]∥2009 IEEE Conference on Computer Vision and Pattern Recognition, June 20-25, 2009, Miami, FL, USA. New York: IEEE, 2009: 1022- 1029.

赵庆生, 王雨滢, 梁定康, 郭尊. 基于BOF图像检索算法的变电站设备图像分类[J]. 激光与光电子学进展, 2020, 57(18): 181011. Qingsheng Zhao, Yuying Wang, Dingkang Liang, Zun Guo. Image Classification of Substation Equipment Based on BOF Image Retrieval Algorithm[J]. Laser & Optoelectronics Progress, 2020, 57(18): 181011.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!