液晶与显示, 2023, 38 (6): 835, 网络出版: 2023-06-29  

不同重建深度的微图像阵列生成

Generation of elemental image arrays for different reconstruction depths
作者单位
四川大学 电子信息学院,四川 成都 610065
摘要
由于集成成像显示系统具有有限的景深,在微图像阵列获取与生成过程中,要考虑3D图像的重建深度,确保再现的3D图像在集成成像显示系统的景深范围内。当3D图像的重建深度与显示系统景深不适配时,需要重新调节拍摄参数以清晰地显示3D图像。为了避免对目标三维场景进行重新采集,提高微图像阵列生成效率,本文提出一种不同重建深度的微图像阵列生成方法。该方法通过调整图像元节距、调节相邻图像元间的视差值来改变光场的采样间隔,使微图像阵列可以适配不同景深的3D显示系统,提升集成成像微图像阵列的实用性。实验结果表明,该方法能实现不同深度的3D图像重建,验证了所提方法的正确性和可行性。
Abstract
Since an integral imaging display system has limited depth of field, the reconstruction depth of 3D image should be considered in the acquisition and generation processes to make sure that the reconstructed 3D image is within the depth of field of the integral imaging display system. When the reconstruction depth of 3D image does not match the depth of field of the display system, the capture parameters need to be adjusted to display clear 3D images. In order to avoid re-acquisition of 3D scene and improve the utilization efficiency of elemental image array, this paper proposed a generation method of elemental image array for different reconstruction depths. This method can change the sampling interval of light field by adjusting the pitch of elemental image and the parallax value between adjacent elemental image, so that the elemental image array can be adapted to integral imaging display systems with different depth of field and improve the practicability of elemental image array. Experimental results show that the proposed method can achieve 3D image reconstruction with different reconstruction depths and verify the correctness and feasibility of the proposed method.

1 引言

集成成像技术是目前最热门的裸眼真三维显示技术之一,它避免了立体视疲劳问题,可以实现全视差、连续视点的真三维立体成像且无需佩戴眼镜等辅助设备1-6。集成成像可以分为记录和再现两个过程。在记录过程中,3D信息被透镜阵列采集,并被编码为微图像阵列;在再现过程中,3D信息从微图像阵列解码,并重建3D图像。微图像阵列包含3D图像的位置和角度信息,以产生正确的深度线索,缓解辐辏调节冲突。

自1908年首次提出集成成像技术以来7,已经出现了多种生成微图像阵列的方法,计算机生成集成成像技术引起了人们的关注8-10。Halle提出了一种多视图渲染算法,该算法从多个角度渲染静态场景,并且来自同一视点的每组光线都使用透视投影模型进行渲染11-12。Jung和Koch提出了一种基于图像渲染和深度补偿插值的光场图像高效渲染方法13。Deng等人介绍了一种稀疏相机阵列生成微图像阵列的方法,可以将其视为两步微图像阵列生成14-15。Ji等人专注于倾斜的微图像阵列生成方法,以减少摩尔纹的影响16。Li等人引入一种多正字视锥体组合的实时计算机生成集成成像方法,充分利用了图形处理单元的可编程性来提高计算效率17。Sang等人提出了一种基于逆向光线追踪的高效计算机生成方法,可以认为这是实时和交互式计算机生成集成成像的一种有效途径18。为了在交互基础上生成高质量的3D图像,Sang等人还提出了一种基于路径追踪蒙特卡罗方法和递归卷积神经网络的微图像阵列生成方法19。在计算机集成成像微图像阵列生成过程中,设置的相机阵列参数需与3D物体尺寸以及系统景深相匹配,因此针对于不同的3D显示系统参数,需要重新生成对应的微图像阵列,势必会增加图像生成的复杂度。

本文分析了集成成像技术中3D像点重建深度与同名点视差的内在联系,结合图像元节距与同名点视差以及3D深度的关联关系,提出了一种基于图像元缩放变换的不同重建深度微图像阵列生成方法。对于不同的显示系统,无需对目标三维场景进行重新采集,通过简单的图像元节距调整,等效改变同名点像素的视差值,从而改变了光场的采样间隔,使得新节距下的微图像阵列可适配不同景深的集成成像显示系统,提升了微图像阵列的实用性。

2 集成成像立体深度与同名点关系

在集成成像记录过程中,3D场景中某一物点被多个透镜元记录在其覆盖的图像元中形成同名点,所有透镜元记录的图像组成了微图像阵列。在集成成像再现时,同名点间的视差值反应了3D物点的深度信息,如图1所示,3D像点的重建深度l与微图像阵列中同名点视差T、显示面板到透镜阵列的距离g 及透镜阵列中透镜元节距plens有关。它们之间满足:

l=plensgT-plens.

图 1. 集成成像显示过程中3D像点与同名点视差的关系

Fig. 1. Relationship between 3D image point and parallax of homonymous points in integral imaging display

下载图片 查看所有图片

当系统参数一定时(以g=13.2 mm、plens=14.7 mm为例),3D像点的重建深度随同名点视差的变化曲线如图2所示。

图 2. 3D像点的重建深度随同名点视差的变化曲线图

Fig. 2. Variation curve of reconstruction depth of 3D image point with parallax of homonymous points

下载图片 查看所有图片

图2公式(1)可知:以显示方向为正方向,当T>plens时,l >0,即重建的3D图像具有正的深度值,浮出屏幕。如图3(a)所示,“苹果”和“青柠”上的两个像点所对应的同名点视差均大于透镜元节距,因此两者均凸出屏幕显示。当T =plens时,l趋向于无穷,通常不会出现此类3D图像。当T <plens时,l <0,即重建的3D图像具有负的深度值,凹进屏幕里面,如图3(b)所示,“苹果”和“青柠”上的两个像点所对应的同名点视差均小于透镜元节距,因此两者均凹进屏幕显示。

图 3. 3D像点重建深度与同名点视差的关系

Fig. 3. Relationship between reconstruction depth of image point and parallax of homonymous points

下载图片 查看所有图片

3 不同深度的微图像阵列生成

根据以上分析容易发现,在系统参数(plens,g)一定时,3D像点的重建深度与同名点视差具有非线性的负相关关系,可以通过改变同名点视差值反过来改变3D像点的重建深度。然而集成成像显示系统具有有限的景深,当超出系统可以承载的景深范围时,重构的3D像点会弥散得模糊不清。因此在视差调节时,还需要考虑到3D像点重建深度范围。如图4所示,根据集成成像显示系统3D景深范围的限定,确定可接受的最大及最小的3D像点重建深度分别为:

lmin=l0-ΔZ2lmax=l0+ΔZ2

式中,l0为透镜阵列到中心深度平面的距离,可由高斯成像公式推导,具体为l0=gfg-f,∆Z为显示系统的景深。结合公式(1),推导出可清晰显示3D图像的同名点视差的最小及最大值分别为:

Tmin=2plensg2l0+ΔZ+plensTmax=2plensg2l0-ΔZ+plens.

基于上述分析,本文提出了一种基于图像元缩放变换的不同重建深度微图像阵列生成方法以适配不同景深范围的集成成像显示系统。由于同名点视差与图像元节距具有正相关关系,可以对图像元进行缩放变换得到新的同名点视差T ':

T'=ηT

其中,η为图像元缩放比例并由公式(1)得出新的重建深度l ':

l'=plensgηT-plens.

考虑实际透镜和像素配置时深度为离散值,在对图像元进行缩放变换时,ηT需对应像素尺寸的整数倍,因此公式(5)的离散表达式为:

l'=plensgηTpxpx-plens

其中:[*]表示四舍五入取整,px表示显示面板像素尺寸的大小。

图 4. 同名点视差的变化范围

Fig. 4. Variation range of parallax of homonymous points

下载图片 查看所有图片

根据公式(1)和(5),我们得出原有深度l和新的深度l '的函数关系:

l'=glη-1l-ηg.

3D像点重建深度随图像元缩放比例的增大而减小,如图5所示。以g=13.2 mm、plens=14.7 mm为例,在图5(a)中,图像元缩放比例η=1,红色的同名点发出的光线经透镜阵列调制后,在空间中会聚形成3D像点,重建深度为l。在图5(b)中,图像元缩放比例η=1.12,3D像点的重建深度l'减小为0.4l。在图5(c)中,图像元缩放比例η=0.95,3D像点的重建深度l'增大为2.5l

图 5. 不同图像元缩放比例的3D像点重建深度

Fig. 5. 3D image reconstruction by elemental image array with different scalings

下载图片 查看所有图片

虽然图像元缩放比例η的变化值很小,但重建深度的变化却很大,如图5所示,其沿透镜光轴方向的轴向放大率α为:

α=gη-1l-ηg.

轴向放大率α与原有图像深度lg及图像元缩放比例η有关,而原有图像深度l限制在系统景深范围之内,(η-1)l的变化值较小,可以用中心深度平面处的轴向放大率近似为整个3D图像的轴向放大率,因此轴向放大率α可近似为:

αgη-1l0-ηg.

3D图像垂直于透镜光轴方向的垂轴放大率为β

β=ηα.

公式(10)可知,当η≠1时,3D图像的轴向放大率和垂轴放大率不同,存在一定程度的压缩或拉伸。然而,在对3D图像进行深度变换时,η的值接近1,变化范围在5%左右,其轴向放大率α与垂轴放大率β近似相等,可看作是角大小不变的深度变换,不会产生明显的3D图像畸变。

在如图6所示的集成成像显示系统中,将微图像阵列A通过图像元缩放变换获取两张新的微图像阵列,分别为微图像阵列B和C,当微图像阵列A、B、C分别在显示面板上显示时,无需进行系统器件参数的调节,便可以显示出不同重建深度的3D图像。

图 6. 显示系统的结构及原理示意图

Fig. 6. Structure and principle diagram of the display system

下载图片 查看所有图片

4 实验验证

我们利用3Ds Max软件搭建了3D场景及拍摄相机阵列,如图7所示。所拍摄的3D场景由字符“3”和字符“D”组成。搭建了虚拟相机阵列进行光场信息的获取,将中心深度平面设置在距离拍摄相机阵列145 mm的深度位置。字符“3”和字符“D”分别在中心深度平面前、后2 mm处。

图 7. 3D拍摄示意图

Fig. 7. 3D shooting diagram

下载图片 查看所有图片

获取的微图像阵列A如图8(a)所示,图像元缩放比例η=1。利用本文所提出的方法,得到缩放比例η=1.01的微图像阵列B和η=0.99的微图像阵列C,分别如图8(b)和图8(c)所示。

图 8. 微图像阵列

Fig. 8. Generated elemental image arrays

下载图片 查看所有图片

表 1. 基于深度的计算机集成成像再现实验的参数列表

Table 1. Parameter list of the depth-based computer integral imaging reconstruction

部件参数数值
透镜阵列透镜元个数5×5
节距14.7 mm
焦距12.1 mm
微图像阵列分辨率2 540 pixel×2 540 pixel
像素尺寸0.031 63 mm

查看所有表

为了验证本文所提方法的正确性,选择基于深度的计算机再现方式进行3D再现,实验参数如表1所示。利用获取的3张微图像阵列分别进行了基于深度的计算机集成成像再现实验,重建的3D图像如图9所示。图9(a)所示为η=1的微图像阵列A重建的3D图像,在143~147 mm深度范围内,如图中红色方框所示,字符“3”在147 mm的深度上清晰再现,字符“D”则在143 mm的深度上清晰再现。图9(b)所示为η=1.01的微图像阵列B重建的3D图像,字符“3”与字符“D”分别在深度130 mm和127 mm处清晰再现,说明通过图像元节距的增大可以实现3D图像深度的缩小,且具体深度值的变化符合理论公式(5)的推导。图9(c)所示为η=0.99的微图像阵列C重建的3D图像,字符“3”与字符“D”分别在深度167 mm和162 mm处清晰再现,说明通过图像元节距的缩小可以实现3D图像深度的增大,且具体深度值的变化符合理论公式(5)的推导。根据实验结果分析可得:当图像元做放大变换后,3D图像的重建深度减小;当图像元做缩小变换后,3D图像的重建深度增大。该实验结果验证了本文所提出方法的正确性及可行性,即通过图像元缩放变换可以实现不同重建深度的3D图像重建。

图 9. 重建的3D图像

Fig. 9. Reconstructed 3D image

下载图片 查看所有图片

5 结论

本文分析了集成成像技术中3D像点重建深度与同名点视差的内在联系,提出一种基于图像元缩放变换的不同重建深度微图像阵列生成方法。该方法针对不同景深范围的集成成像显示系统,无需重新进行集成成像拍摄,仅通过对微图像阵列进行简单的节距变换处理就可以改变重建3D图像的深度,使微图像阵列可以与不同景深的显示系统相适配,增加了微图像阵列的实用性。通过基于深度的计算机再现实验证实了3个不同重建深度范围的3D图像重建,验证了所提方法和理论推导的正确性。本方法可以在一次集成成像拍摄的情况下,实现不同深度的3D图像再现以适配显示系统的3D景深,最大化发挥系统景深性能。

参考文献

[1] 王琼华, 邓欢. 集成成像3D拍摄与显示方法[J]. 液晶与显示, 2014, 29(2): 153-158.

    WANG Q H, DENG H. 3D pickup and display method of integral imaging[J]. Chinese Journal of Liquid Crystals and Displays, 2014, 29(2): 153-158.

[2] SON J Y, SAVELJEV V V, JAVIDI B, et al. Pixel patterns for voxels in a contact-type three-dimensional imaging system for full-parallax image display[J]. Applied Optics, 2006, 45(18): 4325-4333.

[3] PARK S, YEOM J, JEONG Y, et al. Recent issues on integral imaging and its applications[J]. Journal of Information Display, 2014, 15(1): 37-46.

[4] ZHANG H, ZHAO Y, CAO L C, et al. Three-dimensional display technologies in wave and ray optics: a review[J]. Chinese Optics Letters, 2014, 12(6): 060002.

[5] SON J Y, LEE H, LEE B R, et al. Holographic and light-field imaging as future 3-D displays[J]. Proceedings of the IEEE, 2017, 105(5): 789-804.

[6] 桑新柱, 于迅博, 陈铎, 等. 三维光显示技术研究进展[J]. 激光与光电子学进展, 2017, 54(5): 050006.

    SANG X Z, YU X B, CHEN D, et al. Research progress on three-dimensional optical display technology[J]. Laser & Optoelectronics Progress, 2017, 54(5): 050006.

[7] LIPPMANN G. La photographie integrale[J]. Comptes-Rendus de l'Académie des Sciences, 1908, 146: 446-451.

[8] LEEB N R, CHOY, PARKK S, et al. Design and implementation of a fast integral image rendering method [C]//Proceedings of the 5th International Conference on Entertainment Computing (ICEC '06). Cambridge, UK: Springer-Verlag, 2006: 135-140. 10.1007/11872320_16

[9] LIAOH E, NOMURAK, DOHIT. Autostereoscopic integral photography imaging using pixel distribution of computer graphics generated image [C]//Proceedings of the ACM SIGGRAPH 2005 Posters (SIGGRAPH '05). Los Angeles, California: Association for Computing Machinery, 2005: 73-es. 10.1145/1186954.1187037

[10] 何伟, 李强, 郭兆达, 等. 基于回返器和反射偏振片的分辨率增强集成成像3D显示器[J]. 液晶与显示, 2022, 37(5): 555-561.

    HE W, LI Q, GUO Z D, et al. Resolution-enhanced integral imaging 3D display using retro-reflector and reflective polarizer[J]. Chinese Journal of Liquid Crystals and Displays, 2022, 37(5): 555-561.

[11] HALLEM W. Multiple viewpoint rendering for three-dimensional displays[D]. Massachusetts: Massachusetts Institute of Technology, 1997: 243-254.

[12] HALLEM. Multiple viewpoint rendering [C]//Proceedings of the 25th Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH '98). Orlando, FL, USA: Association for Computing Machinery, 1998: 243-254. 10.1145/280814.280884

[13] JUNGD, KOCHR. Efficient rendering of light field images [C]//Proceedings of the 2010 International Conference on Video Processing and Computational Video. Dagstuhl Castle, Germany: Springer-Verlag, 2010: 184-211. 10.1007/978-3-642-24870-2_8

[14] DENG H, LI D H, LUO C G, et al. Generation method of orthoscopic elemental image array from a sparse camera array[J]. SID Symposium Digest of Technical Papers, 2012, 43(1): 463-466.

[15] DENG H, WANG Q H, LI D H. Method of generating orthoscopic elemental image array from sparse camera array[J]. Chinese Optics Letters, 2012, 10(6): 061102.

[16] JI C C, LUO C G, DENG H, et al. Tilted elemental image array generation method for moiré-reduced computer generated integral imaging display[J]. Optics Express, 2013, 21(17): 19816-19824.

[17] LI S L, WANG Q H, XIONG Z L, et al. Multiple orthographic frustum combing for real-time computer-generated integral imaging system[J]. Journal of Display Technology, 2014, 10(8): 704-709.

[18] XING S J, SANG X Z, YU X B, et al. High-efficient computer-generated integral imaging based on the backward ray-tracing technique and optical reconstruction[J]. Optics Express, 2017, 25(1): 330-338.

[19] LI Y H, SANG X Z, XING S J, et al. Real-time optical 3D reconstruction based on Monte Carlo integration and recurrent CNNs denoising with the 3D light field display[J]. Optics Express, 2019, 27(16): 22198-22208.

杨翠妮, 李姣姣, 郭兆达, 邓欢. 不同重建深度的微图像阵列生成[J]. 液晶与显示, 2023, 38(6): 835. Cui-ni YANG, Jiao-jiao LI, Zhao-da GUO, Huan DENG. Generation of elemental image arrays for different reconstruction depths[J]. Chinese Journal of Liquid Crystals and Displays, 2023, 38(6): 835.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!