基于自适应联合双边滤波的深度图像空洞填充与优化算法 下载: 1644次
1 引言
消费级深度传感器Kinect的出现,使得计算机视觉领域中三维场景重建[1-2]、RGB-D目标识别[3-4]和语义分割[5]等方向的技术发展迅猛。Kinect v2相机可以获得彩色图像信息,同时其深度传感器通过飞行时间测距法(ToF)获取同一位置的深度图像信息。实际应用中,物体边缘部分的反射性通常变化剧烈,获取的深度图像往往在物体与背景的接触边缘产生空洞[6],表现为像素值为零的区域。另外,深度传感器误差和作用范围的限制以及光噪声的影响,导致设备不能有效接收反射信息,从而降低深度图像的质量。
近年来,研究人员在深度图像空洞填充与质量优化方面做了许多工作,借助Kinect相机可同时提供同一场景下彩色与深度图像的便捷性,结合彩色信息的深度图像修复算法取得了显著成果。2012年,Chen等[7]结合彩色图像利用区域生长方法检测并去除具有错误深度值的像素,提出一种自适应双边滤波器并用于填充缺失深度值,有效降低了噪声,提高了深度图像的质量;刘俊毅[8]提出基于引导快速行进法的深度图像未知区域填充算法,重新设计了权重项的表达和深度值的填充顺序,在一定程度上改善了深度缺失值的修复效果;Liu等[9]利用局部图像邻域中彩色与深度图像联合填充像素缺失区域时,提出一种能量最小化方法,在能量函数中添加TV21正则化项,保留了深度图像的锐利边缘;Lu等[10]提出一种利用噪声彩色图像完成缺失深度值填充并对深度图进行去噪的方法,将RGB-D稀疏值合成矩阵在低秩子空间约束中实现去噪和缺失深度值修复,取得了较好的效果;Song等[11]为解决冗余颜色边缘导致缺失深度值修复不正确的问题,使用图像金字塔策略提取原始深度图像的边缘,将其与彩色图像中提取到的边缘在马尔科夫(MRF)优化框架中融合,获得了增强的深度图;谭志国等[12]设计了一种根据图像深度值进行分层的去噪算法,将深度图像分为多个图层后分别去噪,最后进行拼接合成完整的修复图像,但该方法对于深度图像的较大空洞填充效果不佳;Chang等[13]提出一种联合纹理相似性孔填充(TSHF)、纹理相似性深度增强(TSDE)和旋转建议深度细化(RCDR)的深度图像增强系统,实现了有效抑制噪声、填充深度空洞并锐化物体边缘的目的;2018年,Zhang等[14]使用深度学习方法训练深度网络,将单一RGB图像作为输入,预测密集的表面法线和遮挡边界,结合预测值与RGB-D相机提供的原始深度值,求解所有缺失的像素值,该方法取得了很好的修复效果,但在网络训练过程中需要大量样本数据,过程复杂,时间成本较高。
目前,联合双边滤波(JBF)算法[15]是最常用的基于彩色图像引导深度值填充的方法。本文通过改进传统联合双边滤波算法,提出一种自适应深度图像空洞填充优化方案,在减少输入参数的情况下,增强了深度图像修复的稳健性和通用性。
2 算法原理
2.1 联合双边滤波算法
联合双边滤波器是由双边滤波器发展而来,双边滤波采用加权平均的思想,其利用周边像素灰度值的加权平均代表某个像素的强度,所用的加权平均基于高斯分布,权重不仅考虑像素的欧氏距离,还考虑像素邻域中的颜色差异。由于双边滤波器的权值不稳定,滤波结果在边缘附近会出现一些翻转,为改善其稳定性,引入联合双边滤波器。两者之间的差别就是联合双边滤波算法利用一个导向图(即彩色图像)作为值域权重的计算依据。
联合双边滤波算法的计算公式为
式中:
2.2 改进的自适应深度图像修复算法
针对上述利用联合双边滤波算法修复深度图像时调参繁琐且效果不佳等问题,提出一种改进的自适应联合双边滤波算法,旨在自动确定每个空洞像素点的滤波相关参数,以满足每一个深度值修补时需要一组不同参数的要求。自适应确定最优参数的算法步骤如下。
1) 确定每个空洞像素点的滤波邻域范围
2) 计算参数
式中:
3)计算参数
式中:
(5)式为单通道SSIM的表达式,计算深度图像与彩色图像的结构相似度时,取RGB 3个通道的平均值作为最后结果。(6)式为参数
图 1. 改进的自适应深度图像修复算法示意图
Fig. 1. Diagram of improved adaptive depth image inpainting algorithm
3 实验结果与分析
为了验证提出的深度图像优化算法的性能,进行两组实验。第一组实验以Middlebury立体匹配数据集[18]中的视差数据作为深度图像实际值,为了模拟Kinect深度采集设备中的深度缺失与噪声,对深度图像实际值添加高斯噪声,描黑某些区域表示该区域的深度信息未知,该实验的目的是通过评价指标定量评估算法性能;第二组实验利用Kinect v2传感器拍摄的室内场景彩色图像与深度图像进行深度修复,定性评价自适应深度空洞填充算法的优劣。本文算法的代码通过Visual C++中OpenCV库实现,在配备Intel Core i7-7700HQ 2.8 GHz的CPU以及8 GB内存的计算机上运行。
3.1 彩色与深度图像配准过程
实验之前,采用文献[ 19]方法匹配同一场景的两幅图像,首先获得Kinect v2的相机参数,通过RGB和Depth两个传感器之间的变换矩阵配准彩色和深度图像,即将深度图像的坐标系转换到彩色图像坐标系,使得RGB与深度图像中同一场景的像素位置一一对应。彩色图像与深度图像配准的步骤如下。
1) 在同一场景下,对Kinect v2相机中的彩色摄像头和深度摄像头分别进行标定,得到的内参矩阵分别为
2) 相机坐标系下的齐次三维点(
对于彩色相机,内参矩阵为
则有
式中:齐次坐标
同理,深度相机的映射公式为
式中:
3) 深度相机和RGB相机的坐标可以利用一个旋转平移变换联系起来,即
式中:
由(12)式和(13)式可得
式中:
联立(11)式和(14)式,可得
非齐次坐标表示的相机坐标系下三维点
联立(9)式、(10)式和(16)式,可得
式中:
图 2. Kinect v2传感器采集图像的配准结果。(a)彩色图像; (b)深度图像
Fig. 2. Image registration results acquired from Kinect v2 sensor. (a) Color image; (b) depth image
3.2 改进的自适应深度图像修复结果
在Middlebury立体匹配数据集中选取部分场景并加入噪声,利用本文算法对引入噪声的深度图像进行空洞填充与优化。经过大量实验确定阈值
图 3. Middlebury数据集中部分深度图像的空洞添加和修复结果。(a)原始彩色图像; (b)原始深度图像;(c)添加空洞模拟噪声的深度图像及细节; (d)本文方法改善后的深度图像及细节
Fig. 3. Hole addition and inpainting results of partial depth images in Middlebury dataset. (a) Original color images; (b) original depth images; (c) depth images and details after adding holes to simulate noise; (d) depth images and details improved by proposed method
引入均方根误差(RMSE)和峰值信噪比(PSNR)两个指标来评价算法的去噪性能,从而定量评价修复结果,RMSE主要评价已知图像和修复图像之间的误差大小,其值越小,表示算法性能越好;而PSNR是衡量图像失真或噪声水平的客观标准,其值越大,说明图像的修复质量越好。两者的表达式分别为
式中:
为了更详细地量化修复结果,计算修复图像与原始图像的SSIM,SSIM值越大,说明与原始图像更接近,修复效果越好。定量评价结果如
由
表 1. 基于Middlebury数据集部分图像修复的量化指标
Table 1. Quantitative indicators based on partial image restoration on Middlebury dataset
|
3.3 本文算法与其他方法的对比结果
为了进一步验证本文算法性能的优越性,利用Kinect v2传感器采集一组室内深度图像并进行空洞填充,与传统的联合双边滤波法以及文献[
20]中基于像素滤波和中值滤波的深度图像修复方法进行比较,结果如
从
图 4. 本文算法与其他方法实验结果对比。(a)原始彩色图像;(b)原始深度图像;(c)联合双边滤波法结果;(d)文献[ 20]方法结果;(e)本文算法结果
Fig. 4. Comparison of results obtained by proposed method and other methods. (a) Original color images; (b) original depth images; (c) results of joint bilateral filter; (d) results of Ref. [20]; (e) results of propsoed algorithm
图 5. 本文算法与其他方法基于Middlebury数据集的RMSE对比结果
Fig. 5. RMSE comparison of proposed algorithm and other methods based on the Middlebury dataset
4 结论
提出一种自适应深度图像空洞填充与优化算法,相比于联合双边滤波法,可有效减少输入参数,并且对于每个深度缺失值都计算相应的滤波邻域和权重,深度图像修复结果更加精细准确。另外,分别在Middlebury立体匹配数据集和Kinect v2传感器采集并经配准的RGB-D数据集中完成空洞填充实验,与其他两种方法的定性比较和定量分析结果表明,本文算法不仅实现了自适应深度图像修复,而且对深度缺失值的填充具有较好的适应性和稳健性。
所提算法将SSIM作为计算联合双边滤波中颜色相似项权重参数的指标,在修复大面积深度空洞区域时,依次迭代不同大小的邻域,计算有效深度占比,在一定程度上增加了运算复杂度;另外,深度空洞面积和空洞像素邻域的场景复杂度会对空洞修复效果造成影响,因此,后续工作将从提高深度图像的修复速度与精度两方面展开,并增强算法实时性与可靠性,为利用RGB-D图像进行目标识别、语义分割和三维重建等研究提供高质量深度数据。
[1] Vijayanagar[\s]{1}KR,[\s]{1}LoghmanM,[\s]{1}KimJ.[\s]{1}Refinement[\s]{1}of[\s]{1}depth[\s]{1}maps[\s]{1}generated[\s]{1}by[\s]{1}low-cost[\s]{1}depth[\s]{1}sensors[C]∥2012[\s]{1}International[\s]{1}SoC[\s]{1}Design[\s]{1}Conference[\s]{1}(ISOCC),[\s]{1}November[\s]{1}4-7,[\s]{1}2012,[\s]{1}Jeju[\s]{1}Island,[\s]{1}Korea.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2013:[\s]{1}355-[\s]{1}358.[\s]{1}
[2] 丁少闻, 张小虎, 于起峰, 等. 非接触式三维重建测量方法综述[J]. 激光与光电子学进展, 2017, 54(7): 070003.
[3] Xu X Y, Li Y C, Wu G S, et al. Multi-modal deep feature learning for RGB-D object detection[J]. Pattern Recognition, 2017, 72: 300-313.
[4] 曲磊, 王康如, 陈利利, 等. 基于RGBD图像和卷积神经网络的快速道路检测[J]. 光学学报, 2017, 37(10): 1010003.
[5] HazirbasC,[\s]{1}Ma[\s]{1}LN,[\s]{1}DomokosC,[\s]{1}et[\s]{1}al.[\s]{1}FuseNet:[\s]{1}incorporating[\s]{1}depth[\s]{1}into[\s]{1}semantic[\s]{1}segmentation[\s]{1}via[\s]{1}fusion-based[\s]{1}CNN[\s]{1}architecture[M][\s]{1}∥Lai[\s]{1}S[\s]{1}H,[\s]{1}Lepetit[\s]{1}V,[\s]{1}Nishino[\s]{1}K,[\s]{1}et[\s]{1}al.[\s]{1}Computer[\s]{1}vision-ACCV[\s]{1}2016.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}computer[\s]{1}science.[\s]{1}Cham:[\s]{1}Springer,[\s]{1}2017,[\s]{1}10111:[\s]{1}213-[\s]{1}228.[\s]{1}
[6] 吕朝辉, 沈萦华, 李精华. 基于Kinect的深度图像修复方法[J]. 吉林大学学报(工学版), 2016, 46(5): 1697-1703.
[7] ChenL,[\s]{1}LinH,[\s]{1}Li[\s]{1}ST.[\s]{1}Depth[\s]{1}image[\s]{1}enhancement[\s]{1}for[\s]{1}Kinect[\s]{1}using[\s]{1}region[\s]{1}growing[\s]{1}and[\s]{1}bilateral[\s]{1}filter[C]∥21st[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Pattern[\s]{1}Recognition,[\s]{1}November[\s]{1}11-15,[\s]{1}2012,[\s]{1}Tsukuba,[\s]{1}Japan.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2012:[\s]{1}3070-[\s]{1}3073.[\s]{1}
[8] 刘俊毅.[\s]{1}彩色图像引导的深度图像增强[D].[\s]{1}杭州:[\s]{1}浙江大学,[\s]{1}2014:[\s]{1}20-[\s]{1}23.[\s]{1}
Liu[\s]{1}JY.[\s]{1}Depth[\s]{1}map[\s]{1}enhancement[\s]{1}under[\s]{1}the[\s]{1}guidance[\s]{1}of[\s]{1}color[\s]{1}image[D].[\s]{1}Hangzhou:[\s]{1}Zhejiang[\s]{1}University,[\s]{1}2014:[\s]{1}20-[\s]{1}23.[\s]{1}
[9] Liu[\s]{1}SG,[\s]{1}WangY,[\s]{1}WangJ,[\s]{1}et[\s]{1}al.[\s]{1}Kinect[\s]{1}depth[\s]{1}restoration[\s]{1}via[\s]{1}energy[\s]{1}minimization[\s]{1}with[\s]{1}TV21[\s]{1}regularization[C]∥2013[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Image[\s]{1}Processing,[\s]{1}September[\s]{1}15-18,[\s]{1}2013,[\s]{1}Melbourne,[\s]{1}Australia.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2014:[\s]{1}724-[\s]{1}727.[\s]{1}
[10] LuS,[\s]{1}Ren[\s]{1}XF,[\s]{1}LiuF.[\s]{1}Depth[\s]{1}enhancement[\s]{1}via[\s]{1}low-rank[\s]{1}matrix[\s]{1}completion[C]∥2014[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition,[\s]{1}June[\s]{1}23-28,[\s]{1}2014,[\s]{1}Columbus,[\s]{1}OH,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2014:[\s]{1}3390-[\s]{1}3397.[\s]{1}
[11] Song[\s]{1}XB,[\s]{1}Huang[\s]{1}HY,[\s]{1}ZhongF,[\s]{1}et[\s]{1}al.[\s]{1}Edge-guided[\s]{1}depth[\s]{1}map[\s]{1}enhancement[C]∥2016[\s]{1}23rd[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(ICPR),[\s]{1}December[\s]{1}4-8,[\s]{1}2016,[\s]{1}Cancun.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}2758-[\s]{1}2763.[\s]{1}
[12] 谭志国, 欧建平, 张军, 等. 一种层析深度图像去噪算法[J]. 光学学报, 2017, 37(5): 0510002.
[14] Zhang[\s]{1}YD,[\s]{1}FunkhouserT.[\s]{1}Deep[\s]{1}depth[\s]{1}completion[\s]{1}of[\s]{1}a[\s]{1}single[\s]{1}RGB-D[\s]{1}image[C]∥2018[\s]{1}IEEE/CVF[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition,[\s]{1}June[\s]{1}18-23,[\s]{1}2018,[\s]{1}Salt[\s]{1}Lake[\s]{1}City,[\s]{1}UT,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2018:[\s]{1}175-[\s]{1}185.[\s]{1}
[15] He[\s]{1}KM,[\s]{1}SunJ,[\s]{1}Tang[\s]{1}XO.[\s]{1}Guided[\s]{1}image[\s]{1}filtering[M][\s]{1}∥Daniilidis[\s]{1}K,[\s]{1}Maragos[\s]{1}P,[\s]{1}Paragios[\s]{1}N.[\s]{1}Computer[\s]{1}vision-ECCV[\s]{1}2010.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}computer[\s]{1}science.[\s]{1}Berlin,[\s]{1}Heidelberg:[\s]{1}Springer,[\s]{1}2010,[\s]{1}6311:[\s]{1}1-[\s]{1}14.[\s]{1}
[17] 赵旭.[\s]{1}Kinect深度图像修复技术研究[D].[\s]{1}大连:[\s]{1}大连理工大学,[\s]{1}2013:[\s]{1}16-[\s]{1}18.[\s]{1}
ZhaoX.[\s]{1}The[\s]{1}research[\s]{1}on[\s]{1}kinect[\s]{1}depth[\s]{1}image[\s]{1}inpainting[\s]{1}technique[D].[\s]{1}Dalian:[\s]{1}Dalian[\s]{1}University[\s]{1}of[\s]{1}Technology,[\s]{1}2013:[\s]{1}16-[\s]{1}18.[\s]{1}
[18] ScharsteinD,[\s]{1}PalC.[\s]{1}Learning[\s]{1}conditional[\s]{1}random[\s]{1}fields[\s]{1}for[\s]{1}stereo[C]∥2007[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition,[\s]{1}June[\s]{1}17-22,[\s]{1}2007,[\s]{1}Minneapolis,[\s]{1}MN,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2007:[\s]{1}383191.[\s]{1}
[19] KimC,[\s]{1}YunS,[\s]{1}Jung[\s]{1}SW,[\s]{1}et[\s]{1}al.[\s]{1}Color[\s]{1}and[\s]{1}depth[\s]{1}image[\s]{1}correspondence[\s]{1}for[\s]{1}Kinect[\s]{1}v2[M][\s]{1}∥Park[\s]{1}J,[\s]{1}Chao[\s]{1}H[\s]{1}C,[\s]{1}Arabnia[\s]{1}H,[\s]{1}et[\s]{1}al.[\s]{1}Advanced[\s]{1}multimedia[\s]{1}and[\s]{1}ubiquitous[\s]{1}engineering.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}electrical[\s]{1}engineering.[\s]{1}Berlin,[\s]{1}Heidelberg:[\s]{1}Springer,[\s]{1}2015,[\s]{1}352:[\s]{1}111-[\s]{1}116.[\s]{1}
[20] 刘继忠, 吴文虎, 程承, 等. 基于像素滤波和中值滤波的深度图像修复方法[J]. 光电子·激光, 2018, 29(5): 539-544.
Article Outline
王得成, 陈向宁, 易辉, 赵峰. 基于自适应联合双边滤波的深度图像空洞填充与优化算法[J]. 中国激光, 2019, 46(10): 1009002. Decheng Wang, Xiangning Chen, Hui Yi, Feng Zhao. Hole Filling and Optimization Algorithm for Depth Images Based on Adaptive Joint Bilateral Filtering[J]. Chinese Journal of Lasers, 2019, 46(10): 1009002.