光学学报, 2017, 37 (12): 1215005, 网络出版: 2018-09-06   

全局模型和局部优化的深度网络显著性检测 下载: 1028次

Deep Network Saliency Detection Based on Global Model and Local Optimization
作者单位
1 海军航空工程学院控制工程系, 山东 烟台 264001
2 中国国防科技信息中心, 北京 100142
3 海军92493部队98分队, 辽宁 葫芦岛 125000
摘要
设计有效的特征向量是显著性检测方法的关键,决定了模型效果的上限,基于深度卷积神经网络和手工提取特征相结合的思路,提出了一种新的基于全局模型和局部搜索的显著性检测方法。在全局模型中,通过对VGG-16网络设计额外的卷积层进行训练,生成初始显著图,达到了从图像整体角度预测每一个候选区域显著性的目的。在局部优化模型中,设计区域对比度描述子和区域特征描述子对多级分割的超像素点进行描述,预测每一个区域的显著性值。最后,利用线性拟合的方法将两种模型中产生的显著图进行融合,得到最终的显著图。对4个数据集进行对比测试实验,实验结果表明,本文方法具有最高的准确率。
Abstract
The design of the effective feature vectors is the key to the saliency detection algorithm, which determines the upper bound of the model effect. A new saliency detection algorithm based on global model and local search is proposed by combining the deep convolution neural networks and the hand-crafted features. In the global model, the initial saliency map is generated from designing the extra convolution layers for VGG-16 network training, and thus the saliency value of each object candidate region can be predicted from a global perspective. In local optimization model, the super-pixel region with multi-degree segmentation is described by designing the contrast descriptors and region characteristic descriptors, and the saliency score of each region is predicted. Finally, a linear fitting method is used to fuse the result generated from two models, and the final saliency map is obtained. Contrast experiments for four data sets are demonstrated and the results show that the proposed algorithm has the highest precision.

1 引言

基于视觉注意机制的显著性检测对图像分析具有非常重要的意义。注意机制是人类信息加工过程中的一项重要心理调节机制,能够对有限的信息资源进行分配,使感知具备选择能力。若能将这种机制引入图像分析领域,将计算资源优先分配给容易引起观察者注意的区域,必将极大提高现有图像处理分析方法的工作效率。因此,显著性检测已经受到国内外学者的广泛关注,然而,随着应用场景的日益复杂和准确率要求的不断提高,显著性检测算法仍在持续的发展和完善之中。

传统的显著性检测方法,大多采用特定的先验知识来近似人眼视觉注意机制并结合手工提取目标的颜色、纹理、形状等特征作为显著性判断的依据,如对比度测量[1-2]、中心先验[3]、背景先验[4]等。Kim等[1]利用目标与背景的颜色对比差异,将目标映射到高维线性空间进行显著性区域的划分。Zhu等[3]将图像中心物体设定为目标,边界先验的判断为背景,提出边界连通性的概念进行定量分析,再对目标进行显著性分割。Yan等[5]利用超像素对图像进行多尺度分析,通过不同尺度之间的继承性分析图像全局与局部的特性,再利用随机森林回归生成显著图。此外,还有基于微分方程求解的方法[6]、基于频域分析的方法[7]等。

为了更加精确地表达显著性目标的特征,研究方法趋向于对图像的多层级分解、局部与全局特征的结合,以及对高维特征向量的表述等。然而,这些基于先验知识和人工提取的特征通常基于对目标数据库的观察而设计,在未知的自然图像和日益复杂的场景应用中容易受到限制。近年来,深度神经网络技术在机器学习和人工智能领域产生了革命性的变化,如图像分类[8]、目标检测[9]、人脸识别[10]等。此类方法可以自动地在原始图像上提取分层特征,考虑图像全局因素,并且具有较好的通用性和移植性,在显著性检测领域也逐渐得到应用。

Wang等[11]首先利用卷积神经网络(CNN)对每个像素的局部区域预测显著性得分,再从全局角度对候选区域的显著性进行精细化微调。Lee等[12]利用VGG-16网络提取图像的高级特征,再利用手工设计的特征对规则化的超像素区域提取低级特征,最后添加全连接层进行联合训练,判断区域的显著性。Liu等[13]利用递归神经网络(RNN)将不同图像区域进行上下文联系,再设计与CNN对称的反卷积结构,端到端地生成全分辨率显著图。Li等[14]使用多尺度的CNN特征预测每一个超像素候选区域的显著性得分。相似地,Zhao等[15]利用两个独立的卷积网络分别从全局和局部的角度对多级上下文信息进行联合建模,生成显著图。

相比于上述提到的诸多方法,本文利用卷积神经网络分别提取图像的全局特征和局部特征。其中,全局特征利用改进的VGG-16模型从图像的整体角度对潜在的目标进行定位,局部特征利用手工设计的特征向量构造初始特征图,再构造神经网络进行训练,判断每个分割区域的显著性,结合多级分割的方法可以实现更加精细的划分,最后对多个显著图进行融合得到最终结果。

2 算法模型

2.1 全局模型

在全局模型的构建上,设计了端到端的卷积网络,通过网络训练可以将输入图像直接映射为显著图,模型结构如图1所示。首先将224 pixel×224 pixel的图像输入VGG-16网络,该模型共有5组13个卷积层和相应的映射单元,5个池化层,2个全连接层和1个输出层。输入图像经过5层池化操作之后,输出14×14×512维的特征向量,再通过2个全连接层将其转换为1×1的卷积核。对该模型结构进行改进,使其不同层能够输出具有相同尺寸且分辨率较高的显著图,省略最后2层的最大池化操作,并设计增加额外的卷积层和全连接层,具体操作为:针对VGG网络每个卷积层的特征向量,提取经过conv1卷积后的图像,在网络中添加5×5的卷积核,设定网络参数,步长为4,边缘为2,生成56×56×128维的特征向量,再增加3136维的全连接层sigmoid激活函数,将其映射为56 pixel×56 pixel的显著图。同理,在conv2、conv3和conv4的卷积层之后添加类似的卷积层,卷积核大小均为3×3,步长分别为2、1和1,再利用额外添加的包含3136个神经元的全连接层,生成相同尺寸大小的显著图。在原网络中,由于省略了池化层Pooling4和Pooling5,卷积层conv5之后可生成56 pixel×56 pixel的显著图。

图 1. 模型结构

Fig. 1. Structure of model

下载图片 查看所有图片

该网络初始化的设定如文献[ 8]所述,采用在大数据集ILSVRC12上得到的训练模型参数,在训练阶段,利用标准显著图和随机梯度下降法进行有监督的学习,再利用额外增加的卷积层和全连接层合并分辨率相同的5个图像{ SG1, SG2, SG3, SG4, SG5},生成初始显著图SG,其分辨率为56 pixel×56 pixel。全局模型网络结构图如图2所示,通过改进的VGG网络可以从图像的全局结构获得显著图,不同卷积层的信息提取也在不同尺度上对原始图像进行内容表述。此外,由于该网络结构缺乏对原始图像细节信息的描述,单独的全局模型无论从定量分析还是视觉观察上都无法满足需要,因此需要结合局部信息进行调整,生成更加精细的显著图。

图 2. 全局模型网络结构图

Fig. 2. Network structure of global model

下载图片 查看所有图片

2.2 局部优化模型

局部模型利用邻域像素之间的颜色、纹理等特征提取吸引人注意的点或区域,采用简单线性迭代聚类(SLIC)分割方法对图像进行多级划分。针对图像I,对其进行M级的超像素分割,I={I1,I2,…,IM},每一级分割都是对图像I的分解,并且由Km个区域组成。其中,I1包含数量最多的超像素点,是对原图像最精细的划分,IM包含最少的超像素点。I1级的分割可表示为I1={ I11, I21,…, IK11},其他每一级分割Im均是通过聚合前一级分割Im-1获得。分割后的图像块具有相似的纹理颜色特征和空间一致性,更加利于网络的训练和分类。针对划分后的区域,使用区域对比度描述子和区域特性描述子两种形式的特征对每一个区域进行描述。

区域对比度描述子对每一个超像素区域构造一个特征向量,包括颜色和纹理特征,记为v1,每一维特征向量的含义如表1所示。对于区域RIm,针对其邻域N计算的颜色和纹理特征向量记为 v1N,则R的区域对比度描述子可通过相应特征向量的差分计算得到,记为diff( vR1, v1N)。Gabor滤波器是一个边缘提取的线性滤波器,可用于图像纹理的提取和处理,这里用其表述图像块的纹理特征,直方图的特征利用距离差异计算,其他特征通过向量间的绝对差异计算。计算后的区域对比度描述子为34维的特征向量。若以d表示向量x1x2的元素数量,则可记为

d(x1,x2)=(x11-x21,,x1d-x2d)(1)

χ2定义为

χ2(h1,h2)=i=1b2(h1i-h2i)2h1i+h2i,(2)

式中b为直方图分组数。

表 1. 对比度描述子特征向量

Table 1. Feature vectors of contrast descriptor

Color texture featureDifferential feature
FeatureDescriptorDimensionDefinitionDimension
Average RGB valuea13d(aR1,a1I)3
Average lab valuea23d(aR2,aI2)3
Gabor filter responser24d(rR,rI)24
Maximum Gabor responser1d(rR,rI)1
RGB color histogramh124χ2(hR1,hI1)1
Lab color histogramh224χ2(hR2,hI2)1
HSV color histogramh324χ2(hR3,hI3)1

查看所有表

区域特性描述子为利用区域自身特性建立的描述子,记为v2。外观特征利用该区域的颜色和纹理分布进行描述,可以对显著性目标和背景进行区分,如背景通常具有均匀的颜色分布和相似的纹理。几何特征包括该区域的尺寸和位置,有助于描述目标和背景的空间分布,如目标通常处于图像的中心,而边缘通常为背景。根据以上描述,建立了41维的区域特征描述子,区域特性描述子参数如表2所示。

表 2. 区域特性描述子参数

Table 2. Parameters of regional feature descriptor

FeatureDimensionFeatureDimension
Normalized x of regional center1Regional connectivity[16]1
Normalized y of regional center1RGB color variance3
Normalized are1Lab color variance3
Aspect ratio of bounding box1HSV color variance3
Bounding box width1Gabor filter response variance24
Bounding box length1Normalized area of neighborhood1

查看所有表

区域显著性得分是将上述两种描述子作为超像素分割区域的特征向量,则每一个区域可以得到一个75维的特征向量v。为了构造基于CNN的网络模型进行训练,借鉴文献[ 12]中的方法,首先将图像的超像素点进行规则化划分,划分的原则为超像素点落在哪个区域的面积最大则判定其属于该区域,利用构建的75维区域描述子,组成三维矩阵作为输入图像的初始特征距离图,超像素点特征向量生成过程如图3所示。图像的规则化分割取20×20,共进行5级超像素分割,初始种子点数为300,其余分别为250、200、150和100。

图 3. 超像素点特征向量生成过程

Fig. 3. Generation of feature vectors of super-pixel

下载图片 查看所有图片

每个超像素点构造成20×20×75维的初始特征距离图,作为网络的输入,按照图1所示的网络,采用2个卷积层和2个全连接层进行训练。卷积层利用1×1的卷积核和线性修正单元(ReLU)激活函数,分别生成20×20×128维和20×20×32维的特征向量。1×1卷积核的优点在于可以在保持特征图尺寸的情况下进行卷积核通道数的降维和升维,还可以大幅增加网络的非线性特性。2个全连接层的尺寸分别为2048和1024个神经元,起到分类器和回归的作用,将分布式特征表示映射到样本的标记空间。最后利用Softmax层对进行分类,判断每一个区域的显著性,生成与原始尺寸相同的显著图。局部模型中,对图像进行了5级划分,因此,共生成5张全分辨率的显著图。训练数据的构建利用标准显著图对这些图像块进行标注,生成训练网络的正样本和负样本。正样本为当图像块KG重叠部分满足 KG≥0.8×min( K, G)的样本;其他像素块均为负样本。

2.3 显著图融合

通过全局和局部模型共得到M个显著图{S1,S2,…SM},目标是对这些显著图进行有效的融合,生成最终的显著图S。各步骤显著图结果如图4所示。不同尺度下,局部模型得到的均是全尺寸显著图,在融合之前,需要在全局模型得到的显著图进行上采样,保持与原图尺寸相同。采用基于线性组合的方式对M个显著图进行融合,可表示为

S=m=1MωmSm,(3)

图 4. 各步骤显著图结果。(a)原图;(b)全局模型;(c)局部优化图;(d)最终显著图;(e)标准显著图

Fig. 4. Saliency maps of different steps. (a) Original images; (b) global models; (c) images of local optimization; (d) final saliency maps; (e) ground truth images

下载图片 查看所有图片

式中权重系数ω可通过在验证集上进行最小二乘估计得到。通过在所有训练图像上最小化代价函数可得

{ωm}m=1M=argminω1,ω2,ωM(=S-m=1MωmSm=F2)(4)

此外,还可以采用条件随机场(CRF)的方法对多级显著图进行融合[14,17],然而,针对本文的情况,简单的线性组合即可得到较为满意的结果,生成与复杂算法近似的最终显著图。

3 实验仿真及对比分析

3.1 测试数据集及训练参数

为了对本文方法进行验证,在通用的4个数据集中进行测试,4个数据集分别为SOD、ECSSD、PASCAL-S和MSRA。SOD数据集来源于伯克利大学的目标分割数据库,共包含300幅图像,每幅图像包含多个不同尺寸和位置的目标。ECSSD数据集共1000张来源于网络的图像,其更贴近真实场景下的图像,因此具有复杂的场景。PASCAL-S是在PASCAL VOC 2012数据集中选出的部分图像制作的显著性检测数据集,共850幅,图像包含多个目标和复杂背景,是目前最难以检测的数据集之一。MSRA数据集由微软亚洲研究院发布,共5000幅图像,该数据集包含大量不同类别的目标,但多数图像仅包含一个显著性目标。以上4个数据集均包含手工标注和标准显著图供算法验证。在实验中,选用MSRA中的3000幅图像,以及CSSD和PASCAL-S中各300幅图像作为训练集,其余图像作为测试集。

为了对本文方法的性能进行评价,使用准确率-召回率(PR)曲线和F-measure平均测量误差(MAE)对算法进行定量分析,其中,PR曲线通过不同的阈值对显著图进行划分,并将二值图像与标准显著图进行对比,F-measure曲线定义为

Fβ=(1+β2)·hP×hRβ2·hP+hR,(5)

式中β2=0.3,hP为准确率,hR为召回率。F-measure曲线测量了显著图与标准图之间像素的平均误差。

本文方法的实现利用深度学习框架Caffe[18]进行训练和测试,在全局模型中,首先将输入图像映射为224 pixel×224 pixel,新添加的网络层初始学习率设为0.01,原VGG-16网络层为0.001,冲量参数为0.9,权重延迟为0.0005。

3.2 性能对比

将本文方法与目前较为流行的HDCT[1]、GC[2]、wCtr[3]、DRFI[4]、MR[5]、主成分分析(PCA)[19]、视觉显着性(GBVS)[20]、LEGS[11]和SF[15]等方法进行对比,所用的实验结果和显著图均为原文中公开的数据。图5所示为4个数据集下不同方法的PR曲线,从图中可以看出,在4个数据集的测试中,本文方法在绝大多数情况下都能取得优于其他方法的准确率和召回率。其中,在MSRA图像集中各方法的曲线得分最高,在较为复杂的图像集SOD和CSSD中,各方法的性能略差,这也表明复杂场景下的目标更加难以检测,需要设计更有普适性的方法模型和多种特征协同检测。本文方法在PASCAL-S数据集中取得了较高的检测得分,主要原因是卷积神经网络的初始化参数,在训练的过程中与该数据集中的图像存在重复,在检测时具有一定的优势。

表3所示为不同方法下F-measure得分对比,加粗标出的数据为不同方法的最优得分。从表中可以看出,基于深度学习的显著性检测方法普遍优于传统的检测方法。本文方法在SOD、PASCAL-S和CSSD数据集中,可以得到较好的表现;在MSRA数据集中,与LEGS和DRFI方法得分相比互有高低。

图6为不同方法的显著图对比,列举出的图像包含低对比度、复杂背景、多目标和目标靠近边界等情况。从图中可以看出,本文方法产生的显著图细节更加突出,在多种复杂的场景中对目标的划分更完整。如前两排图像中,目标与背景之间的对比度较低,wCtr方法与PCA方法受到较严重的干扰,无法对目标进行完整检测。中间两排图像为多目标场景,其中,LEGS方法和wCtr方法发生了漏检的情况,GBVS方法的检测结果对背景和目标的区分度较差。最后两排为复杂背景情况,目标融于背景之中,HDCT方法和DRFI方法生

成的显著图不清晰,无法定位目标中心的准确位置。本文方法在这些复杂情况下均获得了较为理想的显著性提取。分析原因,本文模型的成功之处在于包含了两种不同的注意机制,全局模型的训练关注图像的整体,使其可以检测到图像中的多个目标区域,不受孤立噪声的影响;而局部模型起到优化的作用,因此检测到的结果更加准确精细。

图 5. 4个数据集下不同方法的PR曲线。(a) SOD; (b) PASCAL-S; (c) CSSD; (d) MSRA

Fig. 5. PR curves of four data sets with different methods. (a) SOD; (b) PASCAL-S; (c) CSSD; (d) MSRA

下载图片 查看所有图片

表 3. 不同方法下的F-measure得分对比

Table 3. Comparison of F-measure scores with different methods%

DatasetCurveProposed methodLEGS methodDRFI methodHDCT methodwCtr methodGBVS methodPCA methodGC methodSF methodMR method
SODF-measure73.167.470.265.463.761.354.950.655.354.2
MAE20.421.224.126.624.526.925.328.826.727.4
CSSDF-measure84.683.178.870.566.865.357.555.754.567.5
MAE12.811.917.919.918.422.725.223.420.119.0
PASCALF-measure75.374.969.960.461.169.353.161.657.458.3
MAE14.715.520.322.920.117.823.925.521.421.2
MSRAF-measure91.290.591.980.578.365.970.168.262.578.3
MAE10.48.914.311.916.613.718.914.716.213.0

查看所有表

图 6. 本文方法与其他方法显著图对比。(a)原图;(b)标准显著图;(c)本文方法;(d) LEGS;(e) DRFI;(f) HDCT; (g) wCtr;(h) PCA;(i) GBVS

Fig. 6. Visual comparisons of our results and others. (a) Original images; (b) ground truth images; (c) proposed method; (d) LEGS; (e) DRFI; (f) HDCT; (g) wCtr; (h) PCA; (i) GBVS

下载图片 查看所有图片

4 结论

提出了一种基于深度神经网络训练的显著性检测方法,该方法通过全局模型和局部模型两种网络结构构造多级显著图,再利用线性组合的方法进行融合,生成最终的精细显著图。其中,全局模型可以有效地利用全局显著性特征预测每一个目标区域的显著性值,局部模型可以从划分的多级超像素点中学习到目标的局部对比度、纹理和形状信息。此外,局部模型的初始特征是利用手工设计的方法进行提取,再结合神经网络进行训练,两种方法的结合有助于提取更有针对性的特征并提高网络模型的训练速度。测试数据集的实验表明,本文方法可以得到更加准确的显著性检测结果。

参考文献

[1] Kim J, Han D, Tai Y W, et al. Salient region detection via high-dimensional color transform and local spatial support[J]. IEEE Transactions on Image Processing, 2016, 25(1): 9-23.

    Kim J, Han D, Tai Y W, et al. Salient region detection via high-dimensional color transform and local spatial support[J]. IEEE Transactions on Image Processing, 2016, 25(1): 9-23.

[2] Cheng M M, Mitra N J, Huang X, et al. Global contrast based salient region detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569-582.

    Cheng M M, Mitra N J, Huang X, et al. Global contrast based salient region detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569-582.

[3] Zhu WJ, LiangS, Wei YC, et al. Saliency optimization from robust background detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 2814- 2821.

    Zhu WJ, LiangS, Wei YC, et al. Saliency optimization from robust background detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 2814- 2821.

[4] Jiang HZ, Wang JD, Yuan ZJ, et al. Salient object detection: a discriminative regional feature integration approach[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2083- 2090.

    Jiang HZ, Wang JD, Yuan ZJ, et al. Salient object detection: a discriminative regional feature integration approach[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2083- 2090.

[5] YanQ, XuL, Shi JP, et al. Hierarchical saliency detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 1155- 1162.

    YanQ, XuL, Shi JP, et al. Hierarchical saliency detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 1155- 1162.

[6] Liu RS, Cao JJ, Lin ZS, et al. Adaptive partial differential equation learning for visual saliency detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 3866- 3873.

    Liu RS, Cao JJ, Lin ZS, et al. Adaptive partial differential equation learning for visual saliency detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 3866- 3873.

[7] JiangP, VasconcelosN, Peng JL. Generic promotion of diffusion-based salient object detection[C]. IEEE International Conference on Computer Vision, 2015: 217- 225.

    JiangP, VasconcelosN, Peng JL. Generic promotion of diffusion-based salient object detection[C]. IEEE International Conference on Computer Vision, 2015: 217- 225.

[8] 刘大伟, 韩玲, 韩晓勇. 基于深度学习的高分辨率遥感影像分类研究[J]. 光学学报, 2016, 36(4): 0428001.

    刘大伟, 韩玲, 韩晓勇. 基于深度学习的高分辨率遥感影像分类研究[J]. 光学学报, 2016, 36(4): 0428001.

    Liu Dawei, Han Ling, Han Xiaoyong. High spatial resolution remote sensing imaging classification based on deep learning[J]. Acta Optica Sinica, 2016, 36(4): 0428001.

    Liu Dawei, Han Ling, Han Xiaoyong. High spatial resolution remote sensing imaging classification based on deep learning[J]. Acta Optica Sinica, 2016, 36(4): 0428001.

[9] GirshickR, DonahueJ, DarrellT, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580- 587.

    GirshickR, DonahueJ, DarrellT, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580- 587.

[10] TaigmanY, YangM, Ranzato MA, et al. Deepface: closing the gap to human-level performance in face verification[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1701- 1708.

    TaigmanY, YangM, Ranzato MA, et al. Deepface: closing the gap to human-level performance in face verification[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1701- 1708.

[11] Wang LJ, Lu HC, RuanX, et al. Deep networks for saliency detection via local estimation and global search[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3183- 3192.

    Wang LJ, Lu HC, RuanX, et al. Deep networks for saliency detection via local estimation and global search[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3183- 3192.

[12] LeeG, Tai YW, KimJ. Deep saliency with encoded low level distance map and high level features[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 660- 668.

    LeeG, Tai YW, KimJ. Deep saliency with encoded low level distance map and high level features[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 660- 668.

[13] LiuN, Han JW. DHSNet: deep hierarchical saliency network for salient object detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 678- 686.

    LiuN, Han JW. DHSNet: deep hierarchical saliency network for salient object detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 678- 686.

[14] Li GB, Yu YZ. Visual saliency based on multiscale deep features[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 5455- 5463.

    Li GB, Yu YZ. Visual saliency based on multiscale deep features[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 5455- 5463.

[15] ZhaoR, Ouyang WL, Li HS, et al. Saliency detection by multi-context deep learning[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1265- 1274.

    ZhaoR, Ouyang WL, Li HS, et al. Saliency detection by multi-context deep learning[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1265- 1274.

[16] 刘峰, 沈同圣, 韩艳丽, 等. 融合背景感知和颜色对比的显著性检测方法[J]. 计算机辅助设计与图形学学报, 2016, 28(10): 1705-1712.

    刘峰, 沈同圣, 韩艳丽, 等. 融合背景感知和颜色对比的显著性检测方法[J]. 计算机辅助设计与图形学学报, 2016, 28(10): 1705-1712.

    Liu Feng, Shen Tongsheng, Han Yanli, et al. Saliency detection via background aware and color contrast[J]. Journal of Computer-Aided Design & Computer Graphics, 2016, 28(10): 1705-1712.

    Liu Feng, Shen Tongsheng, Han Yanli, et al. Saliency detection via background aware and color contrast[J]. Journal of Computer-Aided Design & Computer Graphics, 2016, 28(10): 1705-1712.

[17] KrähenbühlP, KoltunV. Efficient inference in fully connected CRFs with Gaussian edge potentials[C]. Advances in Neural Information Processing Systems, 2011: 109- 117.

    KrähenbühlP, KoltunV. Efficient inference in fully connected CRFs with Gaussian edge potentials[C]. Advances in Neural Information Processing Systems, 2011: 109- 117.

[18] Jia YQ, ShelhamerE, DonahueJ, et al. Caffe: convolutional architecture for fast feature embedding[C]. 22nd ACM International Conference on Multimedia, ACM, 2014: 675- 678.

    Jia YQ, ShelhamerE, DonahueJ, et al. Caffe: convolutional architecture for fast feature embedding[C]. 22nd ACM International Conference on Multimedia, ACM, 2014: 675- 678.

[19] MargolinR, TalA, Zelnik-ManorL. What makes a patch distinct?[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 1139- 1146.

    MargolinR, TalA, Zelnik-ManorL. What makes a patch distinct?[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 1139- 1146.

[20] LiY, Hou XD, KochC, et al. The secrets of salient object segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 280- 287.

    LiY, Hou XD, KochC, et al. The secrets of salient object segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 280- 287.

刘峰, 沈同圣, 娄树理, 韩冰. 全局模型和局部优化的深度网络显著性检测[J]. 光学学报, 2017, 37(12): 1215005. Feng Liu, Tongsheng Shen, Shuli Lou, Bing Han. Deep Network Saliency Detection Based on Global Model and Local Optimization[J]. Acta Optica Sinica, 2017, 37(12): 1215005.

本文已被 9 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!