立体视觉中心凹JND模型及其图像压缩硬件实现 下载: 790次
1 引言
心理物理学中,最小可觉差(JND)可以表示人眼所能感受到的刺激的最小变化量,同时也能够体现人眼对图像失真的最大容忍度。目前,已有多个JND模型被提出。Chou等[1]使用JND模型对亮度掩蔽特性和对比掩蔽特性的影响进行了研究,该模型是像素域2D-JND模型之一。Chen等[2]提出了加入中心凹掩蔽特性的JND模型,结果表明JND值与偏心角有关。Wang等[3]在Chen等[2]的基础上加入了视觉注意特性。2D-JND模型对于平面图像是适用的,然而立体图像具有深度信息,所以人眼对其主观感知有所不同。Liu等[4]提出了一种3D-JND模型,但该模型只研究了人眼舒适区的小范围深度变化,而且对比掩蔽特性中未考虑背景亮度的影响。Fan等[5]提出了一种显著性加权立体JND模型,但其并未涉及中心凹掩蔽特性。
综上可知,提高JND模型与人眼特性的匹配程度十分重要,为此本文根据实验建立一种FD-JND(Foveation-Depth JND)模型。在相同的客观质量评价下,该模型的主观质量评价结果均高于其他JND模型,表明其更符合人眼视觉。JND体现了人眼对图像灰度变化的容忍度,其可以反映图像中的视觉冗余,因此应用于图像压缩。目前,虚拟现实(Virtual Reality,VR)设备普遍朝着高分辨率和广视角的方向发展[6],然而当前显示技术的传输带宽无法承载过多的数据量[7],为此季渊等[8-9]根据人眼特性提出了一种基于多尺度金字塔的压缩方法,在分辨率上对VR图像进行了数据压缩。本文根据JND模型提出一种像素域的色阶压缩算法,使用三种单色的JND阈值加权得到色差阈值后对图像进行色阶压缩,采用误差分散算法减少压缩过程中的失真图像。针对该算法设计相应的微显示控制器,在现场可编程门阵列(Field-Programmable Gate Array,FPGA)平台上成功驱动硅基有机发光二极管(Organic Light-Emitting Diode,OLED)显示器,实现VR图像的实时压缩显示,有效减少传输的数据量,验证该算法在硬件方面实现的可行性。
2 双目观测实验
2.1 视觉掩蔽特性
JND会受到多种人眼视觉特性的影响,包括亮度掩蔽、对比掩蔽、中心凹掩蔽和深度掩蔽等特性。中心凹掩蔽特性描述人眼对中心凹区域的分辨力强和外围区域弱的情况,深度掩蔽特性描述不同深度下人眼的感知情况。在立体视觉中,人眼有舒适区和非舒适区[10],在舒适区范围内人眼视敏度随着视距的增加而减少[11]。
对于立体图像中的某一像素点P(i,j),深度值的计算公式为
式中:b为相邻两台相机的基线距离;f为相机焦距;D为像素点P对应左右图像之间的视差值。
2.2 实验建立
为了研究立体视觉场景下4种掩蔽特性对JND的影响,对亮度和对比度进行两种类型的心理学实验,每种实验又对偏心角和深度进行改变。实验采用的设备为Oculus Rift CV1,该VR设备的单眼屏幕分辨率为1080 pixel×1200 pixel,水平视场角为110°,角分辨率(PPD)约为10。实验测试人员共14名,其中男性10人,女性4人,年龄均在21~25岁之间。通过弗莱堡视力测试,所有人员的视力表现均正常。为了避免心理影响,测试人员仅知晓基本的信息。
2.3 中心凹-深度-亮度掩蔽特性实验
实验中,采用左右图片的格式在VR中进行显示,左右图的分辨率均为1080 pixel×1200 pixel,测试的左眼图片如
式中:DL为左图中噪点到凝视点的像素差值;DR为右图中噪点到凝视点的像素差值;a为凝视点到人眼中心的像素差值。令凝视点所对应的成像处的深度值为1.0,则D=120,此时噪点相对凝视点的偏心角按照两者的像素距离与PPD之比进行计算,PPD值设为10。
根据三角形相似原理可以得到相同偏心角下不同深度的像素差值,表达式为
实验中设置的亮度组为11组,偏心角组为13组,深度组为5组,具体数值如
表 1. 亮度掩蔽特性和对比掩蔽特性实验的具体数值
Table 1. Specific values of luminance masking characteristic and contrast masking characteristic experiments
|
2.4 中心凹-深度-对比掩蔽特性实验
图 4. 亮度掩蔽特性的实验结果。(a) JND与亮度的关系;(b) JND与偏心角的关系;(c) JND与深度的关系;(d)在d=1.0的情况下,JND与亮度和偏心角的关系;(e) 在e=20的情况下,JND与亮度和深度的关系;(f)亮度掩蔽特性实验的4D图像
Fig. 4. Experimental results of luminance masking characteristic experiment. (a) Relationship between JND and luminance; (b) relationship between JND and eccentricity angle; (c) relationship between JND and depth; (d) relationship among JND, luminance, and eccentricity angle at d=1.0; (e) relationship among JND, luminance, and depth at e=20; (f) 4D image of luminance masking characteristic experiment
对比掩蔽特性实验相比于亮度特性实验,实验中进一步增加了对比区域,测试过程中对比区域为方型,与凝视点同样处于图像的中心位置,如
3 FD-JND模型的建立及分析
3.1 亮度掩蔽特性模型
实验结果如
根据实验数据建立相应的亮度掩蔽特性模型,模型的方均根误差(Root Mean Squared Error,RMSE)值为1.0171,JND与背景亮度l、偏心角e和深度d的关系分别为
式中:a1=2.046×10-8;a2=-9.44×10-6;a3=0.001437;a4=-0.07248;a5=5.273;b1=3.099×10-6;b2=-0.0001298;b3=8.477×10-6;b4=0.1435;b5=4.663;c1=26.04;c2=-93.75;c3=124;c4=-66.25;c5=15;μ1和μ2均为校正参数,值分别为-1.637和0.224;JFD-JND,l为中心凹深度(Foveated Depth,FD)影响下由l得到的JND值。由于亮度与灰度值呈正相关,因此l可以使用当前邻域内像素灰度的加权均值来代替,通常取5 pixel×5 pixel大小的加权模板[1]。
3.2 对比掩蔽特性模型
对比掩蔽特性的实验结果如
图 5. 对比掩蔽特性的实验结果。(a) JND与对比度的关系;(b) JND与亮度和对比度的关系
Fig. 5. Experimental results of contrast masking characteristic experiment. (a) Relationship between JND and contrast; (b) relationship among JND, luminance, and contrast
根据测得的实验数据来建立相应的对比掩蔽特性模型,JND与背景亮度l、对比度c、偏心角e和深度d的关系分别为
式中:M为相较于亮度掩蔽,由对比掩蔽所引起的JND变化值;JFD-JND,c为中心凹深度影响下由c得到的JND值;u1=-2.206×10-5;u2=0.006143;u3=-0.07232;u4=-1.06;v1=-1.731×10-5;v2=0.004102;v3=0.3572;v4=-0.65;w1=3.983×10-6;w2=-0.001496;w3=0.2457;w4=-0.46。对比度c可以使用边沿梯度来表示,本文使用5 pixel×5 pixel区域内的Sobel算子进行计算。
最终的FD-JND模型可表示为
由(11)式可知,模型的RMSE值为1.4042,表明模型的拟合程度较好。
4 JND模型的比较
为了验证所建立的FD-JND模型的准确性,将其与Liu[4]和Wang[3]提出的模型进行对比。测试图片均来自Waterloo IVC 3D数据集[12],图片的分辨率为1920 pixel×1080 pixel。与文献[ 13]类似,本文对原始图片注入相同的噪声量进行污染,用来比较不同JND模型下的主观视觉质量。为了便于测试和比较,不同JND模型的深度值均设为1.0,凝视点固定在图像的中心,注入过程采用大小为5 pixel×5 pixel的滑块。污染后的图片在像素(i,j)处的灰度值为
式中:I为原始图片;o为第o个滑块;Nrand为随机数,其从0、0.382、0.574、0.700和1.000中随机选取。测试图片以110°的视场角在VR设备中进行全屏显示,测试方法选用主观测试建议书ITU-R BT.500中所建议的双刺激连续质量尺度法,评分分为5个等级,如5(两张图的差异完全不可见),4(差异可见但噪声不明显),3(可察觉少量噪声),2(可以察觉的较多噪声),1(可察觉的噪声很多)。注入的噪声量以峰值信噪比(PSNR)作为衡量标准,不同JND模型下的平均主观得分(MOS)如
从
表 2. 不同模型的平均主观得分对比
Table 2. Comparison of average subjective scores of different models
|
不同JND模型污染后的噪声分布如
图 6. 不同JND模型的噪声注入分布。(a)原始图像;(b)所提模型;(c)文献[ 4];(d)文献[ 3]
Fig. 6. Noise injection distributions of different JND models. (a) Original image; (b) proposed model; (c) Ref. [4]; (d) Ref. [3]
图 7. 不同JND模型污染后图片的中心区域放大图。(a)原始图像;(b)所提模型;(c)文献[ 4];(d)文献[ 3]
Fig. 7. Enlarged view of central area of picture after pollution by different JND models. (a) Original image; (b) proposed model; (c) Ref. [4]; (d) Ref. [3]
5 基于FD-JND模型的多重色阶压缩算法
5.1 图像色觉冗余
JND是人眼视觉特性形成掩蔽效应的临界值,其反映了人眼对图像不同区域中信号失真的容忍程度,利用该人眼生理特性对图像所包含的信息进行压缩,可以大幅度优化图像信息的表现方式,达到去除图像中的视觉信息冗余而且人眼无法察觉的目的。由于JND反映的是灰度图像的视觉冗余,因此不能直接应用于彩色图像,需要对其进行一定的变换处理。对于彩色图像,人眼对于红绿蓝(RGB)三色的敏感程度不一,若使用JNCD(Just Noticeable Color Differences)来表示人眼的色差阈值,当察觉到一个单位的色差时,则对应三个颜色分量的刺激增量不同,为此JNCD在RGB空间中会呈现椭球形状的分布。对于彩色图像中总的颜色亮度,通常按照Y=0.30R+0.59G+0.11B,Y体现了RGB三基色的综合能量强度,三个比例系数(R、G和B)对应人眼对红绿蓝三色的不同敏感程度。实验结果表明,当R∶G∶B=2∶1∶4时,模型能够较好地保证图像质量[14],因此可以定义JNCD为三色分量中每种颜色下的加权JND值,计算公式为
5.2 图像低色阶化
若将8 bit的灰度图像降低灰阶,最简单的方法是直接舍弃像素的低数据位,灰度图像的低灰阶量化公式为
式中:g(i,j)为低灰阶量化后的图像;f(i,j)为原始8 bit的图像;round(·)为四舍五入的取整函数;M和N分别为图像的长和宽;n为低灰阶量化等级,n=0,1,…,7。
对于彩色图像,可以在三个通道中同时进行量化以降低色阶,舍弃低位的数据越多,则图像失真的情况越多,因此可以采用误差分散算法,即Floyd-Steinberg抖动算法,其基本思想是将像素点的量化误差分散到邻近像素点,并对舍弃的数据进行补偿。2×2大小的误差传递模板可表示为
式中:3/8、3/8和1/4为权重系数。
算法的处理过程:首先将当前像素的量化误差分别乘以T中的三个权重系数,然后加到右、下和右下的像素中。根据实际实验结果发现,对于彩色图像,Floyd-Steinberg抖动算法可以将色阶量化至16,此时人眼能够观察到较小的颗粒噪点,当色阶量化至8时,噪点颗粒较明显。
5.3 多重色阶压缩算法
彩色图像的多重色阶压缩过程:采用5 pixel×5 pixel大小的滑块从图像的左上角开始进行移动,分别计算出RGB三个通道下滑块中心所对应的背景亮度LR、LG和LB以及偏心角e。由于低色阶量化是对整个滑块进行处理,为了加快运算速度,所有滑块均使用固定深度的亮度掩蔽JND函数。由l和e可以得到当前滑块中心在三个通道下的JND值,加权后得到最终的JNCD值。根据JNCD值使用2×2模板的Floyd-Steinberg抖动算法进行不同程度的色阶量化,在量化过程中三个通道的色阶均保持一致。根据JND值的分布以及抖动算法在低色阶量化过程中的失真情况,多次实验后按照
表 3. 不同JNCD取值的色阶
Table 3. Color scale of different JNCD values
|
6 FPGA系统验证
6.1 硬件整体框架
为了验证算法在硬件方面实现的可行性,采用以FPGA为核心的硅基OLED微显示器测试平台,结构框架如
6.2 压缩结果与分析
压缩测试所用的9张测试图片均来自Middlebury Stereo 2005数据集[12],图片的分辨率约为695 pixel×555 pixel,当深度值为1时,按照w/110(w为图片宽度)的角分辨率进行数据压缩,
为了对图像质量进行分析,采用PSNR、中心凹的峰值信噪比(FPSNR)[16]和SSIM(Structural Similarity)三个客观质量评价参数进行评价。由于图像是在大视场角的VR中进行显示,因此对不同偏心角的图像计算PSNR。FPSNR将PSNR与视敏度函数fc结合,用来评估图像的整体质量。SSIM对两幅图的亮度、对比度和结构进行相似性评估,值越接近1表示相似度越高。
在压缩率方面,以处理后图像的总比特与原始图像的总比特之比作为压缩指标,彩色图像的平均比特压缩率可以达到61.65%,较大程度地减少了VR图像的数据量。
图 10. 图像压缩效果的对比及其局部放大图。 (a)原始图像;(b)压缩后的图像
Fig. 10. Comparison of image compression effect and local enlarged view. (a) Original images; (b) compressed images
表 4. 彩色图像压缩后的各项评价指标和比特率
Table 4. Evaluation index and bit rate of color image compression
|
7 结论
根据人眼视觉特性,对立体图像下的JND进行研究并设计4种掩蔽特性实验,用来分析不同掩蔽特性对JND的影响,建立FD-JND模型并与另外两种中心凹JND模型进行对比,结果表明该模型具有更好的准确性。将感知冗余模型应用于图像压缩,用来去除图像中的冗余数据,为此提出一种FD-JND结合误差分散的多重色阶压缩算法,并在FPGA平台上完成该算法的设计与验证。实验结果表明,在保证图像质量较高的同时,该算法能够较大程度地降低VR图像的数据量,为超高清近眼显示设备面临的传输数据量过大问题提供一种良好的解决方案。
[2] Chen Z Z, Guillemot C. Perceptually-friendly H.264/AVC video coding based on foveated just-noticeable-distortion model[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(6): 806-819.
[3] Wang HK, YuL, Wang SW, et al.A novel foveated-JND profile based on an adaptive foveated weighting model[C]∥2018 IEEE Visual Communications and Image Processing (VCIP), December 9-12, 2018, Taichung, Taiwan, China.New York: IEEE Press, 2018: 18620452.
[5] FanY, Larabi MC, Cheikh FA, et al.Just noticeable difference model for asymmetrically distorted stereoscopic images[C]∥ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 12-17, 2019, Brighton, UK.New York: IEEE Press, 2019: 2277- 2281.
[6] 石晓卫, 苑慧, 吕茗萱, 等. 虚拟现实技术在医学领域的研究现状与进展[J]. 激光与光电子学进展, 2020, 57(1): 010006.
[7] 范丽亚, 马介渊, 张克发, 等. 虚拟现实硬件产业的发展[J]. 科技导报, 2019, 37(5): 81-88.
[8] 季渊, 余云森, 高钦, 等. 基于人眼视觉特性的硅基OLED微显示器系统[J]. 光子学报, 2019, 48(4): 0411001.
[9] 季渊, 高钦, 余云森, 等. 基于多尺度金字塔的硅基OLED微显示控制器[J]. 光学学报, 2019, 39(12): 1223001.
[14] 王向阳, 杨红颖, 陈利科. 基于人眼视觉系统的自适应量化数字水印算法研究[J]. 小型微型计算机系统, 2005, 26(9): 1525-1529.
[15] 穆廷洲, 季渊, 陈文栋, 等. 基于双帧数模融合扫描的硅基有机发光二极管微显示器[J]. 激光与光电子学进展, 2019, 56(9): 092302.
[16] Lee S, Pattichis M S, Bovik A C. Foveated video quality assessment[J]. IEEE Transactions on Multimedia, 2002, 4(1): 129-132.
Article Outline
季渊, 郑志杰, 吴浩, 张引, 陈文栋, 穆廷洲. 立体视觉中心凹JND模型及其图像压缩硬件实现[J]. 光学学报, 2021, 41(12): 1210001. Yuan Ji, Zhijie Zheng, hao Wu, Yin Zhang, Wendong Chen, Tingzhou Mu. Foveated JND Model Based on Stereo Vision and Its Application in Image Compression with Hardware Implementation[J]. Acta Optica Sinica, 2021, 41(12): 1210001.