激光与光电子学进展, 2019, 56 (16): 161010, 网络出版: 2019-08-05   

贝叶斯融合多核学习的图像显著性检测 下载: 944次

Image Saliency Detection of Bayesian Integration Multi-Kernel Learning
作者单位
河北工业大学电子信息工程学院, 天津 300401
摘要
针对当前图像显著性检测算法存在的检测不准确和边缘不清晰问题,提出基于改进的贝叶斯公式融合算法。采用compactness先验得到初级显著图,并以初级显著图作为训练样本,采用多核学习方式得到次级显著图,而后基于贝叶斯公式以一定的比例融合初级和次级显著图,最终获得精确的显著性检测图。实验结果表明,算法在2个公开数据集上进行检测时,所得结果能够有效地突出目标物体,去除边缘模糊的现象,且实验结果在3个数据指标(精确度、召回率和F-measure值)方面均优于其他8种算法,算法运行速度较快,实验结果也更为精确。
Abstract
An improved fusion algorithm based on Bayesian formula is proposed for addressing inaccurate detection and unclear edge problems in existing image saliency detection algorithms. First, compactness prior is used for obtaining the primary saliency map. Then, the secondary saliency map is obtained via multi-kernel learning using primary saliency maps as training samples. Finally, a Bayesian formula is used to integrate the primary saliency map with the secondary saliency map at a certain proportion to obtain an accurate saliency map. Experimental results obtained on two public datasets demonstrate that the proposed algorithm can effectively highlight the target object and remove blurred edges. The proposed algorithm is superior to eight existing algorithms from the viewpoint of accuracy, recall rate, and F-measure value. Furthermore, the running speed of the proposed algorithm is faster, and it demonstrates more accurate experimental results.

1 引言

近年来,图像显著性检测算法的研究越来越得到人们的关注,在场景中找到信息最丰富的区域,成为解决信息问题的有效方式。显著性检测被应用于诸多领域,如目标识别[1]、视觉跟踪[2]、图像压缩[3]等。一般地,显著性检测算法通过自底向上[4]或者自顶向下[5]的算法进行分类。自底向上的算法利用的是低层次的图像信息,如对比颜色、纹理和边界的特征。Harel等[6]构造马尔可夫链,快速提取图像显著性区域的GBVS( Graph-Based Visual Saliency)算法,应用心理学特征,但计算复杂,显著图分辨率很低;Margolin等[7]用主成分分析的方法(PCA)计算图像数据,利用内部结构计算得到最后的显著性图,但计算复杂,检测效果不理想;Yang等[8]对传统的中心先验进行改良,提出粗略估计显著目标位置的HC(Histogram Contrast )算法,该算法存在边界模糊问题;Tong等[9]提出了基于多尺度超像素的SD-MS(Saliency Detection with Multi-Scale Superpixels )显著性检测算法,并在2015年通过增强学习[10](BL)获得准确性更高的显著结果,但运行时间较长,实验结果也受到影响。而自顶向下的算法分析任务驱动的视觉时,需要大量的训练样本对其进行监督学习。如Cheng等[11]提取三通道颜色特征差异计算显著性值,由于只通过颜色特征来分析,故只能粗略检测出显著图,该算法称为Global Contrast Based Salient Region Detection,简称GR算法,对背景抑制能力较弱;Jiang等[12]考虑突出的外观和空间分布,利用马尔可夫链吸收节点AMC(Absorb Markov Chain)的时间来计算显著性值,计算复杂,运算效率较低,并且实验效果并不理想;Li等[13]采用稀疏稠密传播重建误差,并对高斯算法进行改进以获取显著值,该算法称为Dense and Sparse Reconstruction,简称DSR算法,算法效率低。

针对图像显著性检测算法存在的检测不准确和边缘不清晰问题,利用贝叶斯公式算法将通过compactness先验得到的初级显著性图和通过多核学习得到的次级显著性图融合,同时运用多尺度分割,得到最终的显著性图。本文结合两种检测算法的优势,提取空间特征,训练学习样本,同时运用贝叶斯公式融合,可以大幅提高检测结果的精确性。

2 算法整体框架

底层特征的传统显著性检测方式常通过提取场景的低级特征来突出目标,故对于复杂背景的抑制与目标内部纹理的均匀性检测效果欠佳,检测结果边缘模糊,目标边界附近像素归类容易产生误差。为解决以上问题,提出了一种基于多核学习与贝叶斯公式融合的显著性检测算法。基于多核学习方式能有效突出显著性目标,基于compactness先验对比能够紧密地区分显著目标的位置,将两种显著图以贝叶斯公式融合,优势互补。整体框架如图1所示。

图 1. 显著性检测整体框图

Fig. 1. Framework of saliency detection

下载图片 查看所有图片

3 初级和次级显著图

3.1 初级显著图

在基于底层线索的全局或局部的显著性检测算法中,无论是背景还是目标的颜色纹理等细微变化,都可以在显著性结果中呈现出来,因此引入误差的概率较大。图像的显著性检测目标一般都对应真实存在的物体,他们通过互相连接的区域组合起来,所以,相比于背景区域,显著性目标具有更加紧凑的空间分布特性,因此引入了compactness先验[14]的算法从空间紧凑度的角度来提高算法的性能。

从场景角度分析,图像的前景目标物体通常被背景区域紧紧包围,这就意味着空间域的颜色分布在背景区域较为分散,故任一超像素的颜色空间差异越大就越可能是背景区域。首先将输入图像分割成n个超像素,其中任意超像素vi的空间差异性s(i)的计算公式为

s(i)=j=1Naijnjbj-uij=1Naijnj,(1)

式中:bj=[ bjxbjy]为超像素vj的所有超像素的归一化水平方向位置均值和归一化垂直方向位置均值组成的向量;nj为超像素vj所包含的像素个数;aij=exp(lij2)为超像素间相似性,lij=‖ci-cj‖为超像素节点在CIELab颜色空间的欧氏距离,ci为在颜色节点中对应的超像素ni均值,ω为权重调控参数;ij为像素节点;N为图像分割的超像素数量;空间位置均值表达式为ui=[ uixuiy],坐标公式为

uix=j=1Naijnjbjxj=1Naijnj,(2)uiy=j=1Naijnjbjyj=1Naijnj(3)

根据摄影学原理,物体大多被安排在图像靠近中央的位置,这使得图像更加美观,同时也更容易在看到图像的同时能够捕捉到图像的焦点,即显著目标。故任一超像素到图像中心的空间距离ρ(i)可表示为

ρ(i)=j=1Nhijnjbj-pj=1Nhijnj,(4)

式中:p=[px py]为图像中心坐标;hij=aij×exp -bi-bjλ-2为空间距离的相似性值, λ-为常量。通过compactness先验得到的初级显著性值为

Man(i)=1-Norm[s(i)+ρ(i)],(5)

式中:Norm(·)为归一化函数,表示将函数参数归一化。

3.2 次级显著图

次级显著性检测算法采用多核学习[10]的方法,多核学习是结合多个支持向量机(SVM)分类器的方式,每个SVM可以提取不同的信息特征,由于具有各个核提取不同特征的特点,可解决特征选择和协调特征的缺陷问题。对图像进行训练,将训练与测试放在同一张图像中,给定样本集合{uσ,θσ},σ∈(1,T),uσ代表第σ个样本,θσ代表样本标签,T为样本个数,则将多个特征集合得到的目标函数表示为

Z(u)=m=1Mβm[αTkm(u)+gm],(6)

式中:m代表第m个单核单特征的SVM;M为核函数和特征量乘积;α=[α1θ1α2θ2αTθT]T,ασ为拉格朗日乘子;km(u)=[km(u,u1),km(u,u2),…,km(u,uT)]T,km为核函数的值,将提取样本的背景部分记作-1,前景部分记作1;gm是标准SVM偏置常数;βm为线性组合系数, σ=1Mβσ=1。假设其目标函数为zm(u),则上述公式可以简化为

zm(u)=αTkm(u)+gm,(7)z(u)=n=1Dβnzn(u),(8)

式中:n为增强迭代次数;zm(u)为分类能力较弱的单个SVM分类器;z(u)为组合分类器,具有较好的分类性能,由zn(u)及对应的系数βn进行加权组合构成。然后,将样本权重统一成w(u)=1/T,目的是得到每个弱分类器的目标函数{zm(u)},m=1,2,…,M,最后,得到每一个弱分类器在第ι次迭代的错误率,计算公式为

εm=u=1Tw(u)|zm(ru)|{sgn[-luzm(ru)]}/2u=1Tw(u)|zm(ru)|,(9)

式中:ru为第u个样本;lu为样本二值标签;sgn(·)是符号函数。当sgn(·)函数值大于0时,赋值为1,其他都为-1,找到使得错误率最小时的分类器目标函数zι(u),并计算出线性组合多个SVM的系数,其计算公式为

βι=12lb1-ειει×12sgnlb1-ειει+1,(10)

式中:ειl次迭代后的错误率;βι是线性组合多个SVM的系数,要求βι>0,使得ει<0.5,这是达到最终分类的重要前提。更新样本后的权重公式为

wι+1(σ)=wι(σ)exp[-βιlιzι(rσ)]2ει(ει-1)(11)

(8)式得到的强分类器用于图像样本,经过ι次迭代得到ιβιzι(u),计算得到分类效果较好的分类器z(u),得到的分类器直接用于图像的检测。根据分类器最后的输出结果,构建出像素级别的显著图,成功分离前景与背景区域,得到次级显著图Mf

3.3 构建多尺度显著图

由于所使用的数据集内容丰富,且图像内目标物体的大小不一样,任意图片的显著物体目标的尺度不同,超像素分割在单一尺度下也未必准确,分割情况会影响显著性检测的效果,因此需采用多尺度[12]解决分割问题。设立不同的超像素个数,N=100,150,200,250,均采用简单线性超像素分割方法,在不同的尺度上均计算初级显著值Ma,l,其中下角标l代表尺度,{Ma,l}为4个尺度下得到的初级显著图,对4个尺度的初级显著值进行加权计算获得初级显著图S1,其表达式为

S1=14l=14Ma,l(12)

同理,Mf,l为次级显著值,{Mf,l}为4个尺度下得到的次级显著图,计算出4个次级显著图的均值,得到次级显著值S2,其表达式为

S2=14l=14Mf,l(13)

4 贝叶斯公式融合

贝叶斯公式用条件概率表达各个信息要素之间的相关关系,它能够有效地进行多元信息的表达和融合,在某些情况下,类似于自顶向下的机制,通过寻找先验概率、似然概率和后验概率三者之间的相互关系求得结果,以提高显著性检测的精确性。基于此特点,提出了一种用贝叶斯公式[13]得到的后验概率图,并使用一定的比例将后验概率图进行融合的算法,使得最终结果可以更好地突显出目标。

本文采用将显著图作为贝叶斯公式计算概率的方式,有效解决了因先验概率计算而引入的噪声问题。利用不同显著图的有效信息,分别作为贝叶斯公式中的先验概率和似然概率,得到后验概率显著图,首先So{o=1,2}作为先验概率,Sd{d=1,2}即表示似然概率,要求系数od,然后位置互换再次运算。利用平均显著值来确定So,并获得其前景Fo和背景Bo,归一化直方图中的值表示像素a在前景和背景中的SoSd的似然概率,表达式分别为

P(Sd(a)|Fo)=NbFo[Sd(a)]NFo,(14)P(Sd(a)|Bo)=NbBo[Sd(a)]NBo,(15)

式中:NbFo[Sd(a)]表示统计得到的显著图Sd在前景区域的显著值分布特性;NbBo[Sd(a)]表示统计得到的显著图在背景区域的显著值分布特性;NBo为背景区域超像素数量;NFo为前景区域超像素数量。利用贝叶斯公式得到的后验概率图为

P(Fo|Sd(a))=So(a)P(Sd(a)|Fo)So(a)P(Sd(a)|Fo)+(1-So(a))P(Sd(a)|Bo)(16)

同样地,以Sd作为先验的显著性计算,得到后验概率显著图,基于贝叶斯公式的融合表达式为

BF(S1(a),S2(a))=τP(F1|S2(a))+(1-τ)P(F2|S1(a)),(17)

式中:τ为权重; Fi为对显著图Si进行二值分割得到的前景区域。

贝叶斯公式融合是将这两种显著图的不同信息充分利用,有效地突出图像中的目标,因为次级显著图受到初级显著图的影响,最终融合时初级显著图作为先验概率得到的后验概率所占比例高一些,经过多次实验证实,τ=0.6时得到的实验检测效果最好。

5 实验结果及分析

本文中所有实验结果均是在同一个环境下运行得出,使用Matlab R2014b进行实验分析,运行环境基于Windows8.1操作系统平台,内存4.00 GB,处理器为Intel Core i5 CPU,主频参数为1.60 。实验使用的两个数据集(MSRA-10K[14]和ECSSD[15])为公开数据集,数据集从互联网的共享信息中获得。

为验证本文算法的有效性,对比分析本文算法与8种经典算法(GBVS[6]、HC[8]、PCA[7]、DSR[13]、AMC[12]、GR[11]、SD-MS[9]、BL[10])的实验结果。

5.1 实验分析

在MRSA-10K[14]和ECSSD[15]数据集上进行测试,并通过精确度召回率曲线(P-R曲线)和F曲线直观地对比效果。ECSSD中包含1000张结构复杂的图像,每张图像都有像素级的显著性标记,该数据集中的图像种类广泛,结构复杂。MRSA-10K里含有10000张图像,每张图像都有真值标注,内含图像种类相当丰富,较为简单,适用于显著性检测算法数据对比验证。对比MRSA-10K数据集和ECSSD数据集,可以清楚地看到本文算法展示的结果,即使显著目标有两个时也具有很好的检测效果。对经过compactness先验的图像区域进行空间紧凑度的分析计算,再对处理过的初级显著图进行训练,可更准确地区分背景与前景物体,使得实验结果更为精确,实验效果对比图如图2所示。经对比可得出,不管是在多物体检测效果上还是颜色分辨不明晰的图像上,本文实验结果与二值图(GT)更为相近,检测效果更好(为方便描述,用OUR来表示本文算法)。

图 2. ECSSD和MRSA-10K数据集上显著性检测结果

Fig. 2. Saliency test results on ECSSD and MRSA-10K datasets

下载图片 查看所有图片

5.2 评测指标

在大多数现有的算法中,采用精确率、召回率和F-measure作为比较性能的指标。本研究采用P-R曲线[16],先在[0,255]之间取显著图的标准化阈值,在0到255之间分割图像,生成二进制掩码,并将二进制掩码和真值进行比较,得到P-R曲线[16]。对于每个二进制映射,精确率(简称P)、召回率(简称R)和F-measure(简写成F)之间的关系为

F=(1+γ2)PRγ2P+R,(18)

式中:γ2根据经验取值为0.3。根据FPR之间的关系,F值越高,实验效果越好。9种算法在数据集上的P-R曲线和F曲线的对比如图3~6所示。

图 3. MSRA-10K数据集上P-R曲线。(a)整体曲线;(b)局部曲线

Fig. 3. P-R curves on MSRA-10K dataset. (a) Whole curves; (b) partial curves

下载图片 查看所有图片

图 4. MSRA-10K数据集上F-measure曲线。(a)整体曲线;(b)局部曲线

Fig. 4. F-measure curves on MSRA-10K dataset. (a) Whole curves; (b) partial curves

下载图片 查看所有图片

图 5. ECSSD 数据集上P-R曲线。(a)整体曲线;(b)局部曲线

Fig. 5. P-R curves on ECSSD dataset. (a) Whole curves; (b) partial curves

下载图片 查看所有图片

图 6. ECSSD数据集上F-measure曲线。(a)整体曲线;(b)局部曲线

Fig. 6. F-measure curves on ECSSD dataset. (a) Whole curves; (b) partial curves

下载图片 查看所有图片

图3为MSRA-10K数据集上P-R曲线评测结果,图4为MSRA-10K数据集上F值曲线,图5为ECSSD数据集上P-R曲线评测结果,图6为ECSSD数据集上F曲线评测结果。无论从P-R曲线还是F值曲线都可以很明显地看出本文算法优于其他8种经典算法。相对于P值与R值而言,F值综合考虑两者因素,结果更加可靠。从图4图6可以看出本文算法得到的F值相对平滑,说明本文算法的稳定性强。

为便于观察数据,列出9种算法中最优F值及与其相对应的PR的值,由(18)式可以看到F值是由PR两者共同决定的。为了更加直观地观察各算法最优F值,给出算法F值柱状图,如图7图8所示,可以明显看出,本文算法得到的F值最高,这说明本文算法得到的显著图结果最优,从数据结果的同比增长率上来看,在MRSA-10K数据集上,本文算法F值相比于GBVS算法和HC算法增长率接近50%,相比于BL、SD-MS、AMC、DRS、PCA和GR算法增长率分别为9.7%,9.0%,9.1%,27%,8.3%,8.4%。同样地,在ECSSD数据集上,本文算法增长率也均达到10%以上。

图 7. MSRA-10K数据集最佳F值比对柱形图

Fig. 7. Best F value comparison histogram on MSRA-10K dataset

下载图片 查看所有图片

图 8. ECSSD数据集最佳F值比对柱形图

Fig. 8. Best F value comparison histogram on ECSSD dataset

下载图片 查看所有图片

表1比较了本文算法与其他8种算法的平均运行时间(C语言运行环境用C表示,M表示Matlab运行环境),由表可以很清晰地看出本文算法比部分算法运行速度快,并结合图2的实验效果对比得出,虽然一些算法运行速度快一些,但存在结果分辨率低的问题。在本文算法中,处理次级显著图时,需要对图像进行训练、测试和融合,虽然融合过程也需要大量的计算,也会对图像的运行时间产生一定的影响,但相对来说,本文算法在时间上具有一定的优越性。

表 1. 多种算法运行环境及时间对比

Table 1. Running environments and time of various algorithms

DatasetParameterGBVSHCGRPCADSRAMCSD-MSBLOUR
MSRA-10KCalculation time /s13.2310.265.367.083.161.0817.9313.2312.59
ECSSDCalculation time /s11.3313.265.907.811.371.2816.9313.5511.08

查看所有表

6 结论

针对显著性检测算法存在的检测不准确和边缘不清晰的问题,采用贝叶斯公式将由compactness先验的空间紧密性所产生的初级显著性图和经多核学习得到的次级显著图以不同权重进行融合,这样的结合方式使得最终的显著性检测图像更加精确,在多核学习获得次级显著图的过程中,将训练学习限制在一个图像的多尺度内,既增强了检测效率,又减少了计算资源。经对比经典算法,可以看出本文算法性能优于其他算法,可以更加精确地检测出图像显著目标,在运行时间上也略优于部分算法。

参考文献

[1] 毕立恒, 刘云潺. 基于改进神经网络算法的植物叶片图像识别研究[J]. 激光与光电子学进展, 2017, 54(12): 121102.

    Bi L H, Liu Y C. Plant leaf image recognition based on improved neural network algorithm[J]. Laser & Optoelectronics Progress, 2017, 54(12): 121102.

[2] 李敬轩, 宗群. 基于多特征和局部联合稀疏表示的目标跟踪[J]. 激光与光电子学进展, 2017, 54(10): 101502.

    Li J X, Zong Q. Object tracking based on multi-feature and local joint sparse representation[J]. Laser & Optoelectronics Progress, 2017, 54(10): 101502.

[3] 李非燕, 霍宏涛, 白杰, 等. 基于稀疏表示和自适应模型的高光谱目标检测[J]. 光学学报, 2018, 38(12): 1228004.

    Li F Y, Huo H T, Bai J, et al. Hyperspectral target detection based on sparse representation and adaptive model[J]. Acta Optica Sinica, 2018, 38(12): 1228004.

[4] 汪丽华, 涂铮铮, 王泽梁. 基于流形正则化随机游走的图像显著性检测[J]. 激光与光电子学进展, 2018, 55(12): 121005.

    Wang L H, Tu Z Z, Wang Z L. Image saliency detection based on manifold regularized random walk[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121005.

[5] 鲁圆圆, 强静仁, 汪朝. 基于区域信息主动轮廓模型的图像分割[J]. 计算机工程与应用, 2018, 54(10): 208-212.

    Lu Y Y, Qiang J R, Wang Z. Image segmentation based on active contours with local information[J]. Computer Engineering and Applications, 2018, 54(10): 208-212.

[6] HarelJ, KochC, PeronaP. Graph-based visual saliency[C]∥19th International Conference on Neural Information Processing Systems, December 4-7, 2006, Canada.Cambridge: MIT Press, 2006: 545- 552.

[7] MargolinR, TalA, Zelnik-ManorL. What makes a patch distinct?[C]∥2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 23-28, 2013, Portland, OR, USA. New York: IEEE, 2013: 1139- 1146.

[8] Yang C, Zhang L H, Lu H C. Graph-regularized saliency detection with convex-hull-based center prior[J]. IEEE Signal Processing Letters, 2013, 20(7): 637-640.

[9] Tong N, Lu H C, Zhang L H, et al. Saliency detection with multi-scale superpixels[J]. IEEE Signal Processing Letters, 2014, 21(9): 1035-1039.

[10] TongN, Lu HC, RuanX, et al. Salient object detection via bootstrap learning[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 1884- 1892.

[11] Cheng M M, Mitra N J, Huang X L, et al. Global contrast based salient region detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569-582.

[12] Jiang BW, Zhang LH, Lu HC, et al. Saliency detection via absorbing Markov chain[C]∥2013 IEEE International Conference on Computer Vision, December 1-8, 2013, Sydney, NSW, Australia. New York: IEEE, 2013: 1665- 1672.

[13] Li XH, Lu HC, Zhang LH, et al. Saliency detection via dense and sparse reconstruction[C]∥2013 IEEE International Conference on Computer Vision, December 1-8, 2013, Sydney, NSW, Australia. New York: IEEE, 2013: 2976- 2983.

[14] 黄子超. 先验融合和特征指导的显著目标检测方法研究[D]. 合肥: 安徽大学, 2017: 32- 33.

    Huang ZC. Research of salient object detection based on prior integration and feature guidance[D]. Hefei: Anhui University, 2017: 32- 33.

[15] 刘坤, 张晓怿, 陈宁纪, 等. 融合深度信息的雾霾情况下显著性目标提取[J]. 河北工业大学学报, 2015, 44(2): 10-15.

    Liu K, Zhang X Y, Chen N J, et al. Salient object detection fusing depth information under foggy weather[J]. Journal of Hebei University of Technology, 2015, 44(2): 10-15.

[16] 毕威, 黄伟国, 张永萍, 等. 基于图像显著轮廓的目标检测[J]. 电子学报, 2017, 45(8): 1902-1910.

    Bi W, Huang W G, Zhang Y P, et al. Object detection based on salient contour of image[J]. Acta Electronica Sinica, 2017, 45(8): 1902-1910.

陈雪敏, 唐红梅, 韩力英, 高振斌. 贝叶斯融合多核学习的图像显著性检测[J]. 激光与光电子学进展, 2019, 56(16): 161010. Xuemin Chen, Hongmei Tang, Liying Han, Zhenbin Gao. Image Saliency Detection of Bayesian Integration Multi-Kernel Learning[J]. Laser & Optoelectronics Progress, 2019, 56(16): 161010.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!