首页>论文> 激光与光电子学进展>55卷 > 11期(pp:110004)
     
    彩色三维扫描中纹理重建技术研究进展
    吴佳琛 1, 曹良才 1, *, 陈海龙 2, 彭翔 2, 金国藩 1
    清华大学精密仪器系精密测试技术及仪器国家重点实验室, 北京 100084
    深圳大学光电工程学院教育部广东省光电子器件与系统重点实验室, 广东 深圳 518060
    摘要

    基于光学原理的三维扫描技术通过光学系统对物体空间外形进行扫描,获取物体的三维信息,具有非接触性、高精度和高分辨率等优点。目前,工作距在1 m内的结构光三维扫描重建精度可达0.01 mm量级,点云数量可达百万量级。而采用纹理重建技术能进一步呈现扫描物体的色彩、材质等信息,提高了重建物体的真实感。由于相机误差和光照环境等因素影响,在纹理映射后纹理图像中容易产生接缝、模糊和重影等现象。通过建立相机模型,推导三维空间点和二维图像间的映射关系,归纳造成纹理残留处理痕迹的原因;分类介绍不同策略下消除纹理重建中残留处理痕迹的方法,总结其研究成果在纹理重建中的作用;针对纹理重建中尚存在的不足,对彩色三维扫描的纹理重建方法的发展方向进行了展望。

    关键词 三维传感; 纹理重建; 马尔可夫随机场; 复合权重纹理融合; 色彩校正
    Research Progress of Texture Reconstruction in Color Three-Dimensional Scanning
    Jiachen Wu 1, Liangcai Cao 1, *, Hailong Chen 2, Xiang Peng 2, Guofan Jin 1
    State Key Laboratory of Precision Measurement Technology and Instruments, Department of Precision Instruments, Tsinghua University, Beijing 100084, China
    Key Laboratory of Optoelectronic Devices and Systems of Ministry of Education and Guangdong Province, College of Optoelectronic Engineering, Shenzhen University, Shenzhen, Guangdong 518060, China
    Abstract

    Three-dimensional (3D) scanning based on optical principle is a technology of scanning the object''s spatial shape by optical system, which can acquire 3D information of the objects. The technology has the advantages of non-contact, high precision and high resolution. To our knowledge, the structured-light 3D scanning accuracy is up to 0.01 mm, and the point cloud contains millions of points with the working distance less than 1 m. Texture reconstruction can further present the color, material and other information of the scanned objects, and improve the verisimilitude of reconstructed objects. Due to the influence of camera error and illumination environment, it is easy to produce seam, blurring and ghosting in texture images after texture mapping. By introducing the camera model, we derive the relationship between 3D space point and two-dimensional (2D) image, and then analyze the causes of texture artifacts. The methods of eliminating residual artifacts in texture construction are reviewed, and their advantages and limits are summarized. At last, in view of the shortcomings of texture reconstruction, the development trend of the texture reconstruction method for colored 3D model is prospected.

    Key words three-dimensional sensing; texture reconstruction; Markov random field; composite-weight texture blending; color correction
    论文信息
    doi: 10.3788/LOP55.110004

    通讯邮箱: clc@mail.tsinghua.edu.cn

    1 引言

    三维扫描技术是集光、机、电、计算机技术为一体的自动化、可视化的高新技术,涉及光学、数学及计算机图形学等多个学科领域,主要用于对物体空间外形和结构及色彩进行扫描,以获得物体表面的空间坐标。它的重要意义在于能够将实物的立体信息转换为计算机能直接处理的数字信号,为实物数字化提供了相当方便快捷的手段。随着机器视觉、计算机图形学以及光学测量技术的飞速发展,特别是近年来三维打印技术的兴起,利用三维扫描技术来重建三维模型日渐成为学者们研究的热点。三维扫描技术经历过几代的发展,第一代为接触式测量,通过机械探头探测工件,返回工件表面的点数据,测量速度慢、效率低,对物体表面特性有一定要求,如测量非刚体可能因接触使表面变形,导致测量数据不准[1]。第二代则是以激光扫描技术为代表的非接触式三维扫描技术,与第一代技术相比具有非接触、无损伤及高精度等特点,由于是逐点或逐线扫描,速度仍然比较慢。第三代扫描技术是基于视觉的“照相式”扫描技术,具有面扫描和速度快的特点,目前已广泛应用于虚拟现实、影视游戏制作、逆向工程及文物保护等领域。

    三维扫描技术的应用可追溯到几千年前,古埃及人仅使用水平仪等一些简易工具以难以置信的精度建造出了诸如金字塔的结构。而现代意义上第一个扫描得到的数字三维模型是犹他大学的Sutherland等[2]于1972年扫描并渲染的大众汽车。最初三维扫描技术主要在文化遗产保护领域得到应用,最为著名的有斯坦福大学的“米开朗基罗项目”,1994年,斯坦福大学的Levoy等[3]利用三角原理的激光扫描仪和高分辨率的色彩图像获取并重建了米开朗基罗的包括著名的大卫雕像在内的10座雕塑,其中大卫雕像模型包括2亿个面片和7000幅彩色照片,并提出了一系列的相关技术。普渡大学的Zhang课题组[4-6]致力于结构光成像领域,提出了一系列高速高精度三维表面测量技术。随着技术的发展和设备的小型化,三维扫描技术逐步走向消费市场。2010年,美国微软公司推出的Kinect红外深度感应器,可采集物体的深度信息。2011年,微软研究院[7]基于Kinect开发了Kinect Fusion三维重建技术,可以在仅使用Kinect摄像机深度数据的情况下进行实时三维重建。2017年,美国苹果公司发布的iPhone X内置点阵投影仪和红外镜头,将结构光三维扫描技术集成于手机之中[8]。国内对三维扫描技术研究起步较晚,但在理论和方法上的相关研究与国际水平基本同步。中国科学院自动化研究所的机器视觉课题组[9-10]使用全方位摄像系统与高分辨率照相机完成了建模对象几何与纹理的采集,并通过这些数据的配准与无缝拼接完成了三维场景的建立。香港科技大学的权龙教授课题组[11-13]在大规模场景三维建模,城市扫描和城市大脑等方面做了深入研究。在结构光成像方面,四川大学苏显渝教授课题组[14-17]较早在国内开展基于相位测量轮廓术的三维形貌测量研究,暨南大学钟金钢教授课题组对相移结构光照明技术[18]、激光散斑测量技术[19]及单像素三维成像[20]进行了深入研究,深圳大学彭翔教授课题组[21-24]致力于以相位辅助光学三维测量为核心的三维数字成像与造型技术研究。2017年9月,我国科技部启动“三维数字彩色成像测量仪”国家重点研发计划,预示着三维扫描技术朝着“范围更大、精度更高、速度更快、色彩更多,自动化、智能化”的方向发展,构造三维模型俨然成为一种连接现实生活与虚拟世界的崭新的交互方式。而给三维模型添加彩色信息最大程度地还原了物体的真实物理特征,使模型更具真实感和重现性。

    在得到物体的三维模型后,将采集物体的纹理图像用作纹理信息的重建,能够获得更真实的细节。采集到的一组平面二维图像信息经过配准后投影到三维模型表面,建立二维图像像素到三维空间点的映射关系,最终生成具有真实感的彩色三维模型。而在实际应用中,这种映射关系往往受到模型精度、相机误差等因素的影响,无法获得准确的纹理映射关系;另外,不同视角光照环境的差异,以及物体表面材质对光照反射的各向异性会造成纹理图像之间色彩差异较大,这些因素都会导致纹理重建质量下降。因此,好的纹理重建方法是产生具有真实感的三维模型的关键,如何生成平滑、清晰、自然的彩色三维模型,是纹理重建中的重要研究内容。

    2 纹理重建基本方法

    纹理重建中的核心步骤是纹理映射,纹理映射是建立三维物体表面和二维图像空间像素坐标间对应关系的过程。纹理映射概念最早由Catmull[25]于1974年提出,他首先确立了以(u,v)表示的双变量实数空间(纹理空间)和以参数(s,t)表示的三维曲面之间的对应关系(映射关系)。Blinn等[26]在1976年利用数字信号处理和曲面数学模型的相关理论改进了Catmull的纹理映射算法,使得纹理映射结果更加自然。Bier等[27]在1986年提出了两步纹理映射法,通过引入可参数化的中介曲面,构建出从三维模型到中介曲面、从中介曲面到纹理图像的映射过程,实现对非参数化模型的纹理映射。值得注意的是,随着计算机视觉技术的发展,纹理映射的概念也愈加宽泛,传统的纹理映射概念往往指代计算机渲染流程中将贴图添加到三维模型表面的过程,其渲染对象大多是由计算机建模而成,纹理和模型映射关系可以不存在于真实物理世界中。而研究中所应用的纹理映射技术则是与真实物体的三维重建紧密结合的,纹理图像均为实际拍摄照片,确定纹理照片和几何模型之间的配准问题是纹理映射的关键,其旨在实现目标物体的真实感和三维模型的高保真重建。

    早期的纹理重建方法往往避免计算整个三维模型的映射关系,而是根据当前物体所要呈现的视角,选择不同视角的纹理图像用作纹理映射,这种方法被称为视点相关的纹理映射(VDTM)[28-30]。这些方法虽然取得了良好的结果,但无法为三维模型生成完整的纹理图像,也无法做到实时动态地展示三维模型,因此,各国研究团队都将研究方法聚焦在为模型创建完整静态的纹理图像。

    2.1 相机模型

    相机模型是对实际成像过程的一种近似,利用相机模型可将三维空间点与二维图像点联系起来,其中针孔相机模型(或称为透视相机模型)是一种简单且应用广泛的模型,它是相机的一个近似线性模型,描述了将物体从三维世界坐标系转换到二维图像坐标系的数学映射过程[31]。这个映射过程为从三维世界坐标系转换为三维相机坐标系,再从三维相机坐标系转向二维图像坐标系。相机坐标系的原点取在相机光心位置,称之为投影中心(COP),Z轴沿光轴方向,空间任一点P的投影点p都是COP和P点连线与像平面的交点,如图1所示。

         
     
    针孔相机模型
    图1 针孔相机模型
    Fig. 1. Pinhole camera model

    针孔相机成像过程可描述为一系列坐标变换,首先是由世界坐标系转换到相机坐标系,用公式表示为

    XcYcZc=r11r12r13t1r21r22r23t2r31r32r33t3·XwYwZw1=R|T·XwYwZw1,(1)

    式中: Xw,Yw,Zw,1T为点P在世界坐标系下的齐次坐标, Xc,Yc,ZcT为点P在相机坐标系下的坐标; R|T为旋转平移矩阵,代表了相机在空间中的姿态,也被称为相机外参矩阵。根据三角形相似关系,可得投影到像平面上的坐标为

    x=fXc/Zc,y=fYc/Zc,(2)

    式中,f为COP与像平面的距离,称之为焦距。(2)式可以用齐次坐标与矩阵的形式表示:

    Zcxy1=f0000f000010·XcYcZc1(3)

    (3)式得到的坐标是以图像中心为原点,实际物理距离为单位图像物理坐标系下的坐标。考虑数字图像是以左上角为原点、像素为单位的数组形式进行存储的,再对图像物理坐标系进行平移和缩放,转换到图像像素坐标系:

    uv1=1dx0u001dyv0001·xy1,(4)

    式中:dx,dy为实际像素间隔;u0,v0为图像中心到左上角的距离。将(1),(3)式代入到(4)式中,最终可得三维空间点与二维像素点的对应关系:

    Zcuv1=fdx0u000fdyv000010·R|T·XwYwZw1=K·R|T·XwYwZw1,(5)

    式中,K为包含相机焦距、像素大小、像面尺寸与相机自身特性相关的参数,称为相机内参矩阵。然而在实际的成像过程中,镜头的像差,相机制造、安装及工艺等因素通常会导致相机存在多种非线性畸变,所以线性模型不能准确描述成像几何关系,需要将非线性畸变考虑进来,修正理想投影模型。目前在摄影测量学中广泛使用的畸变模型为Brown模型[32],它包含两种对投影图像影响较大的畸变:径向畸变和切向畸变。径向畸变产生的主要原因是镜头径向曲率的不规则变化导致图像的扭曲变形,切向畸变则是由于透镜本身与相机传感器平面(成像平面)不平行产生的。含畸变的坐标向量 (xd,yd)T与无畸变的坐标向量(x,y)T关系如下[32]:

    xd=x(1+k1r2+k2r4+k3r6)+ 2p1xy+p2(r2+2x2)yd=y(1+k1r2+k2r4+k3r6)+ p1(r2+2y2)+2p2xy,(6)

    式中:r2=x2+y2;k1,k2,k3为径向畸变系数;p1,p2为切向畸变系数。在针孔相机模型中,将(3)式得到的正常位置的坐标代入(6)式得到畸变位置的坐标,再代入到(4)式中即可得到相对准确的三维空间点与二维像素点的对应关系。

    从对相机模型的分析可以看出,相机外参 R|T,相机内参K以及畸变系数是影响映射关系的关键因素,纹理重建算法的目标之一就是要校正以上参数的误差或消除误差对纹理图像的影响。

    2.2 纹理重建中的问题和策略

    在重建过程中,通常需拍摄多角度高分辨率的纹理照片用作计算模型表面高质量的纹理,显然,绝大部分空间点会出现在一幅以上的纹理照片中,如何处理这些同名点是纹理重建的关键。针对该问题的处理方法有很多。一类常用的做法是针对三维模型中每个面片选择最佳视角的纹理图像,将其拼接成最终纹理图集。该方法纹理颜色直接取自拍摄的照片,其像素未经后期处理,保留了原始图像的细节,但由于相机误差和光照等因素影响,在来自不同纹理图像的相邻面片边界处容易产生不连续的接缝。另一类做法是将每幅纹理图像按不同形式的权重进行混合,形成新的纹理图像应用于物体表面。这种做法对图像进行了加权平均处理,平滑了边界,最大程度消除了接缝,视觉上图像一致连贯。但同时也牺牲了图像的细节,特别是在相机误差较大的情况下,会产生模糊和重影。

    基于上述分析,若单一采用某种策略,都不能直接得到一幅完美的纹理图像,造成纹理图像产生处理痕迹的原因有很多,大致可分为如下几种原因。

    1) 相机参数误差:相机姿态和相机畸变等参数的误差是造成纹理图像产生接缝或模糊的主要原因。如图2(a)所示,物体上点P与纹理图像上点p为对应点,相机误差将导致点p错误映射到物体上的P''点。实际上,拍摄物体大小位置的变化都会对相机参数产生影响,甚至由于相机模型本身存在近似误差,纹理图像的接缝或模糊很难被完全消除。

    2) 模型精度较低:如果物体的几何表示不精确,也无法得到正确的纹理映射关系。如图2(b)所示,物体上点P两幅纹理图像在纹理图I1I2对应点分别为p1p2,将p1p2分别映射到不精确模型表面时,会映射到不重合的两点P''1P''2

    3) 光照环境差异:不同视角下纹理图像光照不均也是造成纹理接缝的重要原因,如图2(c)红圈处所示。

    4) 纹理贴图走样:由于物体相同区域在不同图像中的分辨率不一致,在作纹理投影变换时,纹理中分辨率较低的部分重采样后会产生模糊和锯齿,如图2(d)红圈处所示。

         
     
    纹理图像产生处理痕迹的原因。(a)相机参数误差;(b)模型精度较低;(c)光照环境差异;(d)纹理贴图走样
    图2 纹理图像产生处理痕迹的原因。(a)相机参数误差;(b)模型精度较低;(c)光照环境差异;(d)纹理贴图走样
    Fig. 2. Causes of the artifacts in texture image. (a) Camera parameter errors; (b) low model accuracy; (c) inconsistent illumination environment; (d) texture aliasing

    3 纹理图像优化方法研究

    基于上述分析可以看出,尽可能地消除纹理图像中的接缝和模糊等人工痕迹是纹理重建中的核心问题,本节将介绍纹理重建中的优化方法及其适用范围和优缺点,包括相机参数的获取和优化、纹理图像拼接的优化方法、纹理图像融合的优化方法以及纹理色彩校正方法等。

    3.1 相机参数的获取和优化

    优化相机参数是一种从本质上解决纹理质量不佳的方法,相机参数包含外参和内参:外参代表相机在世界坐标系下的姿态,包括位置和方向信息;内参则包括相机焦距,相机畸变系数等信息。在基于图像的三维重建中,相机参数的获取是通过图像配准来实现的,主要的方法可分为半自动配准和自动配准,半自动配准的方法[33]是通过人机交互方式提取特征,然后利用计算机对图像进行特征匹配、变换和重采样,自动配准方法则是基于特征(如角点,边等)[34-35],或基于颜色[36-38]等方法由计算机自动完成特征提取和配准。而结构光扫描等主动式三维扫描方法,则是通过点集配准方式来实现相机姿态参数的获取,如迭代最近点法(ICP)等[39],其计算结果存在一定误差,容易出现误匹配现象[40],需要结合纹理图像作进一步优化。Steinbrücker等[41]通过最大化投影到某视角照片和该视角原始照片的一致性得到两个视角下的最佳刚体变换。Matsushita等[42]通过最小化实拍纹理图像和渲染纹理图像中对应边的距离来优化相机参数。Dellepiane等[43]基于互信息最大化提出了相机参数优化方法,其中两幅图像的互信息定义为

    I(IA,IB)=(a,b)p(a,b)logp(a,b)p(a)p(b),(7)

    式中,IA是拍摄的纹理图像,IB是渲染的纹理图像,p(a)(p(b))表示图像IA(IB)中像素值a(b)出现的概率,p(a,b)为图像IAIB对应位置的像素值分别为ab发生的联合概率,其值可由联合直方图计算得到。相机姿态的优化可表述为

    C*=argmaxcR7IIA,IBC,C=(tx,ty,tz,θx,θy,θz,f),(8)

    式中,C是包含了相机外参(tx,ty,tz,θx,θy,θz)和相机内参(焦距f)的7维优化变量。

    Zhou等[44]于2014年提出了一种基于高斯-牛顿方法进行颜色一致性优化的映射方法,目标函数构造可表示为

    EC,T=ipPiCp-Γi(p,Ti)2,(9)

    式中,C(p)为模型上点p的颜色,Γi(p,Ti)为点p应用(5)式投影到第i幅纹理图上的颜色,Ti即待优化的相机外参矩阵。该目标函数的优化属于非线性最小二乘问题,类似地,相机姿态被参数化为6维向量,通过高斯-牛顿法求解其最佳参数。另外由于存在C(p)和Ti两个未知变量,采用交替优化的方式进行求解。

    虽然相机参数误差是纹理模糊或接缝产生的主要原因,但纹理的模糊并非全部来自不精确的相机参数,相机模型本身都不是完美的,单纯的相机参数优化并不能完全消除纹理中的处理痕迹。通常需要辅以非刚性校正以消除不精确的几何模型和光学畸变带来的误差,获得更精确的映射关系。2012年,Zhang等[45]提出了一种利用薄板样条插值(TPS)的方式来降低局部匹配误差的方法。Zhou等[44]则在目标函数中引入图像的形变参数,将旋转平移矩阵的优化扩展为带有非刚性校正的优化。相机参数优化方法适用于相机配准误差较大的情况,一般用于手持深度相机的三维建模中,或者用于给后期优化提供较好的初值。实际上,无论何种因素导致的纹理接缝或模糊,终将反映在获取的纹理图像上。对纹理图像的优化操作能够实现全局或局部的变形移位操作,实现非刚性校正,相较相机参数优化更加灵活,适用范围更广,因此更多的研究将重点放在纹理图像的优化上。

    3.2 纹理图像拼接方法

    针对每个面片选取最佳视角下的纹理图像是最原始,也是最直观的纹理映射方法。面片法线与视线夹角、面片面积大小等都可作为选取最佳视角的判断依据。这种方式因为其处理方式简单,仍为许多开源或商业工具所使用[46-47]。针对三维模型中每个面片,如何合理地选择纹理图像是纹理拼接方法的关键,其遵循的基本原则是每个面片所对应的纹理质量最优,并且在来自不同纹理图像的相邻面片边界处差异最小。早期的文献针对每个面片,使用贪心算法最小化相邻面片来自不同纹理图像的数量[48-50]。假设模型某个区域的三角面片来自两幅纹理图像CiCj,如图3所示,贪心算法按如下步骤进行:

    1) 找到自身纹理图像来自Ci,且至少两个相邻面片纹理图像来自Cj的三角面片;

    2) 对步骤1)找到的三角面片计算纹理图像Cj的纹理分辨率;

    3) 若采用的Cj的纹理分辨率下降值在预定范围内,则将Cj指定为该三角面片的纹理映射图像。

         
     
    贪心算法示意图。(a)使用纹理质量最优准则得到的三角面片纹理分配图;(b)使用贪心算法重新分配后的三角面片纹理分配图
    图3 贪心算法示意图。(a)使用纹理质量最优准则得到的三角面片纹理分配图;(b)使用贪心算法重新分配后的三角面片纹理分配图
    Fig. 3. Greedy algorithm diagram. (a) Triangulation texture distribution map obtained by texture quality optimal criterion; (b) triangulation texture distribution map redistributed by greedy algorithm

    然而贪心算法得到的是局部最优解,不能全局减少纹理接缝的产生。目前主流的方法是引入马尔可夫随机场(MRF)对面片和面片之间的邻接关系进行建模[51-57],通过对MRF的组合优化求解,能够在全局范围内最大程度地减少不连续性。Lempitsky等[51]注意到纹理映射与MRF之间存在自然的内在联系,于2007年首次提出纹理拼接的全局优化方法,他们将纹理重建问题视为给面片贴标签问题,每个面片可以从不同视角下的纹理照片中选取,相当于对应一组标签,两个相邻面片若贴上不同标签则会产生接缝,则问题转换为找到这样一组标签,以选取纹理质量较好且产生接缝的数量最小的纹理照片。文献[ 51]构造的能量函数为

    EM=i=1Kwimi+i,jNwi,jmi,mj,(10)

    式中:K为面片数量;mi为第i个面片的标签值; wimi为第i个面片的纹理质量代价值,纹理质量越高,代价值越小,文献中以面片法线与视线夹角φ的正弦值的平方构造 wimi,即 wimi=sin2φ+α,α为一常数; wi,jmi,mj则是衡量接缝处色彩差异的代价值,色彩差异越小,代价值越小。该能量函数第一项为数据项(data term),第二项为平滑项(smooth term),符合MRF问题的形式,可以通过图割法等优化方法来求解使得能量函数最小的一组标签。2017年,Wang等[58]针对面片数量较少、精度不高的模型,提出一种视点相关的纹理拼接方法,对MRF数据项进行改进,构造代价函数为 wimisin2φ1+(1-α)sin2φ2,其中,φ1为当前视点视线与纹理视线的夹角,φ2为面片法线与纹理视线的夹角,α为权重因子,通过在“最佳”标签视角和观察视角中折中选择相应的纹理图像,能降低模型误差造成的纹理移位现象。

    经过纹理接缝优化后的模型最大程度地减少了纹理接缝的产生,但在接缝处仍会有纹理错位的现象发生。Allène等[52]使用拉普拉斯金字塔对纹理图不同频段进行分解,再进行加权混合,以达到消除接缝的效果。Gal等[53]将每个视角下面片的一阶邻域作为候选标签,使其在迭代过程中不断位移,纠正对齐误差,但Waechter等[54]认为该方法并未考虑纹理实际内容,很有可能造成语义错误,而且大大增加了计算量,因此在面片数较多的大场景中并不适用。

    组合优化的方法能最大程度降低零散面片数量,减少接缝产生,但并不能完全消除接缝,文献[ 52-59]采用多分辨率加权平均的方法消除边界处不连续现象。文献[ 53-54]采用泊松图像编辑[60]对来自不同视角的纹理边界进行处理。除此之外,文献[ 61-62]则基于光流法对不同视角的纹理图像进行形变操作,从而对齐错位的纹理图像。光流法[63]主要应用于运动追踪领域,可用来计算两幅图像对应像素的位移矢量。由于相机误差等因素存在,某个视角的纹理图像和其他视角投影到该视角的纹理图像之间会有微小的位移,利用光流法可以检测并修正这种位移误差。Dellepiane等[62]先使用光流法对不同视角的纹理进行粗对齐,再对边界处应用局部扭曲函数进一步消除接缝。另外纹理色彩和亮度的不一致,也是形成纹理接缝的原因,需要进行纹理色彩校正,这部分内容将在3.4节详细叙述。

    3.3 纹理图像融合方法

    纹理图像综合了多幅不同视角下的纹理图像,避免了纹理拼接容易产生的纹理错位和亮度跳变现象。最初的纹理融合方法只考虑了纹理交接的接缝处,对接缝处相邻三角形的覆盖区域作纹理融合[64-65],相当于对纹理拼接方法的补充处理,且该方法仅作简单的平均处理,容易产生重影和模糊。后续改进的纹理融合方法将过渡区域扩展到了整个纹理图像的重叠区域,更好地改善了纹理整体的一致性。

    Baumberg等[66]于2002年提出了一种结合了图像拼接和图像融合两种策略的处理方法:将纹理的高低频信息分开进行处理,其中纹理的低频分量使用权重进行混合,但只选择“最佳”视角下纹理的高频分量进行纹理映射。

    Wang等[67]基于信号处理的方法给出了纹理作投影变换的权重,能有效地避免对纹理高频部分欠采样造成的频谱混叠的现象。文献[ 30,68-69]均采用权重混合函数计算纹理颜色。其中Callieri等[69]则根据纹理图像不同区域的颜色置信度,构造出方向权重、深度权重、边界权重等多种权重函数,如图4所示,综合应用各种权重函数对纹理进行融合。该方法客观表达了在不同观察视场下纹理图像的颜色置信度,至今仍为诸多文献所采用[70-71]

         
     
    复合权重示意图。权重从左至右分别为方向权重、深度权重、边缘权重,以及复合权重
    图4 复合权重示意图。权重从左至右分别为方向权重、深度权重、边缘权重,以及复合权重
    Fig. 4. Composite-weight schematic. From left to right: angle weight, depth weight, border weight, and composite-weight

    然而由于模型和配准误差的存在,在模型边缘往往会引入不属于模型上的错误的纹理颜色,即使采用复合权重也很难消除。Ma等[72]提出一种基于点着色的纹理融合方法,该方法在对纹理颜色使用加权平均之前,先给出一个偏离中值的色彩阈值,将超出阈值的纹理颜色视为错误的颜色剔除出去,不参与加权运算,这样能最大程度去除模型和配准误差带来的色彩误差。

    Bi等[73]于2017年提出一种优化单视角纹理图像的方法。优化后纹理图像不仅是各个视角的纹理图像的加权平均,而且在优化过程中能有效校正纹理图像局部错位现象。该文献采用图像处理中“块操作”的方法,引入双向相似函数(BDS) [74]作为能量函数的一部分,其表达式为

    EBDS=1LsSmintTDs,t+αtTminsSDs,t,(11)

    式中:S为原始纹理图像;T为目标纹理图像;s,t为原始和目标纹理图像中的区块;D(·)代表两区块的对应像素在色彩空间中的欧式距离之和;第一项意义是在目标图像中找出与原图欧氏距离最小的区块,代表了目标图完整性(completeness);第二项则反过来,代表目标图与原图的一致性(coherence),如图5所示。

         
     
    双向相似函数示意图。左图为原始图像,右图为目标图像。s1,t1和s2,t2分别为原图和目标图欧氏距离最小的两对区块
    图5 双向相似函数示意图。左图为原始图像,右图为目标图像。s1,t1和s2,t2分别为原图和目标图欧氏距离最小的两对区块
    Fig. 5. BDS function diagram. Left: source image; right: target image. s1,t1 and s2,t2 are two pairs of patches between source and target images which have minimum Euclidean distance, respectively

    最小化双向相似函数,能够使原始纹理图像在保留原图结构信息的前提下产生局部微小位移,使得不同视角投影到某视角的纹理图都能很好地对齐。

    Bi等选取了几种最具代表性的算法,对重建结果进行了比较,包括Zhou等基于相机参数优化算法,以及Waechter等基于MRF纹理图像拼接算法,并与直接投影叠加结果(naive)以及原始纹理图像(ground truth)作比较。对比结果如图6所示,其中第1、2行是采用不精确几何模型的重建结果,第3、4行是采用不精确相机参数的重建结果。

    借鉴全参考图像质量评价方法,本研究选用结构相似性指数(SSIM)[75]对重建结果进行评估。SSIM能反映场景中物体结构的属性,并将失真建模为亮度、对比度和结构三个不同因素的组合,SSIM的范围为-1到1,待评价图与参考图越相似,SSIM的值越接近于1。表1给出图6中不同方法重建结果的SSIM值,参考图为ground truth图像。可以看到Bi等的方法在模型或相机误差较大情况下优于其他算法。

         
     
    不同纹理重建方法重建结果对比图
    图6 不同纹理重建方法重建结果对比图
    Fig. 6. Comparison of reconstruction results of different texture reconstruction methods

    表1 不同重建方法的SSIM值      Table 1 SSIM value of different reconstruction methods

    该方法对于光照一致情况效果很好,但是对于不同视角光照不均的情况,该方法生成的目标图像会有亮斑或暗斑。图7模拟了不同光照环境下的优化结果。S1,S2,S3为三幅不同视角的原始纹理图像;T1,T2,T3为优化后的目标纹理图像;实验中通过调整图片伽马值(γ)来模拟不同光照环境,γ取值范围为(0,),当γ<1,图片亮度变亮,γ>1,图片变暗。从图中可以看到,光照差异越大,色彩分块现象越严重。同时文中也提到该方法有时会改变原图的纹理结构,即有语义错误的现象发生。因此该方法适合模型或相机误差较大,纹理结构简单,光照一致性较好情况下的纹理重建。

         
     
    光照差异对文献[ 73]方法的影响。每一行给出一次实验中的原始纹理图像和目标纹理图像,从上往下光照差异逐渐增大
    图7 光照差异对文献[ 73]方法的影响。每一行给出一次实验中的原始纹理图像和目标纹理图像,从上往下光照差异逐渐增大
    Fig. 7. Influence of illumination disagreement on the method in Ref.[73]. Each row gives the source texture image and the target texture image in the experiment, and the illumination disagreement increases gradually from top to bottom

    3.4 纹理色彩校正方法

    纹理图像是由多个相机(或单个相机在不同时间)拍摄获得的,由于相机的拍摄参数、方位及光照条件等因素的不同,纹理图像之间会存在色彩差异。对于纹理拼接方法,纹理图像的色彩差异会造成色彩分块现象,纹理融合方法虽在一定程度上能削弱色彩差异的影响,但对于色彩差异较大的情况,纹理融合生成的色彩可能会偏离模型实际的色彩,影响模型的真实感。因此对纹理图像进行色彩校正十分必要。要获得物体表面真正的颜色需考虑光照条件和物体表面反射率等因素,在实际应用中要获取到这些参数十分困难,因此更多的方法是将注意力放在消除纹理色彩的跳变上。

    去除光照和阴影影响是一种简单的色彩校正方法。Xu等[76]提出一种消除单幅纹理照片中的高光的方法,Guo等提出一种图像阴影部分检测和移除的方法[77],但该类方法只对单幅图像进行校正,无法解决采用纹理拼接策略时由于不同纹理图像色彩不一致产生的接缝问题。解决该问题的一类方法是基于梯度场的优化方法。泊松图像编辑是常用的解决图像边界色彩不连续的方法,其核心思想是根据边界信息最小化梯度场,如图8所示。

         
     
    泊松图像编辑示意图
    图8 泊松图像编辑示意图
    Fig. 8. Poisson image editing diagram

    图8中,g为原图像中被合成的部分,vg的梯度场,M为合并后的图像,Ω为合并后目标图像中被覆盖的区域,δΩ为其边界。设合并后图像在Ω内的像素值由l表示,在Ω外的像素值由l*表示。目标图像在合成区域的梯度场必须与原图像梯度场接近,在边缘部分要相同,可用公式表述为

    minlΩl-v2s.t.lδΩ=l*δΩ(12)

    其最优解应满足泊松方程:

    Δl=divvs.t.lδΩ=l*δΩ(13)

    通过求解该泊松方程,即可得到无缝融合的合成图像。泊松方程求解简单,融合效果出众,因此为诸多文献所采用[53-54, 78-79]。2007年,Velho等[80]提出一种基于热扩散方程来平滑色彩跳变的方法,先计算接缝处两边纹理像素均值,并将其作为边界条件,之后采用热扩散方程来平滑色彩跳变。2009年,Chuang等[81-82]利用屏蔽泊松方程对纹理进行无缝融合。以上方法仅对边界处进行平滑处理,无法实现纹理图像色彩的全局一致性。为了使全局色彩保持一致,Lempitsky等[51]引入校平函数(levelling function)作为辅助函数,校平函数在不连续点处差值与原函数符号相反,内部梯度和最小,校平函数加上原函数即可消除边界不连续性,同时保证整体色彩在一个很小的范围内变化。如图9所示,图9(a)为圆周上的分段连续函数fo,图9(b)为校平函数gl,图9(c)为二者之和,可以看到校平后的函数在原始函数不连续点处已经得以连续。

         
     
    采用校平函数平滑接缝示意图,其中函数值表示为圆周上的高度。(a)原始函数; (b)校平函数;(c)原始函数和校平函数之和(已减去一常数)
    图9 采用校平函数平滑接缝示意图,其中函数值表示为圆周上的高度。(a)原始函数; (b)校平函数;(c)原始函数和校平函数之和(已减去一常数)
    Fig. 9. Seam levelling on a circumference. Function values are shown as the height above the circumference. (a) Original function; (b) levelling function; (c) sum of original function and levelling function (minus a constant)

    Lempitsky的方法中校平函数仅在顶点处计算,其余部分由插值得到。Waechter等[54]考虑到这种方式并未对纹理错位的情况进行处理,在应用校平函数之前,先对顶点邻接边上的颜色加权平均得到顶点颜色,这样能够减轻纹理错位造成的处理痕迹残留。2015年,Pan等[83]先优化接缝处顶点坐标减轻纹理图像的错位,然后对每个面片求解混合边界条件下的泊松方程,对纹理色彩进行全局调整。

    除了最小化梯度场优化方法之外,还有一类色彩校正方法是对纹理图像进行光照或色彩变换,以实现纹理色彩的一致性[84-92]。其中文献[ 84-85]采用的方法是对纹理图像进行重光照,通过对纹理图像光照条件的估计,对纹理图像的光照效果进行校正。而色彩变换方法最初是由Reinhard等[93]提出,其原理是以一幅标准纹理图像作为参考,先将纹理图像从RGB色彩空间转换到lαβ色彩空间,再对lαβ三个通道的均值和方差进行变换,使其与标准图像保持一致,最后再将纹理图像从lαβ色彩空间转换回RGB色彩空间,即完成了色彩变换过程,该方法被诸多文献所采用[90-92]。Agathos等[86]则假定不同光照环境的变化可近似表达为RGB色彩空间的线性变换,根据纹理图像中同名点的RGB色彩值,估计出一个3×3色彩转换矩阵,用此矩阵对每个像素点的色彩进行修正。

    4 总结和展望

    综上所述,这些纹理重建综合运用了各种数学优化方法和图像处理技术,以达到消除三维物体表面纹理处理痕迹的效果。但值得指出的是,每种方法都有其适用范围,并且单一方法往往不能完全解决问题,虽然可以结合多种方法处理得到想要的结果,但需要加入人工干预,牺牲了算法的灵活性。总的来说,在纹理重建中面临的问题和挑战主要有以下三点:

    1) 纹理分辨率和模型面片数量的提高,对算法的执行效率提出了更高的要求。假设模型的三角面片数量为n,采集纹理图像视角数量为k,则融合算法的复杂度为O(nk),而对于基于MRF的纹理拼接算法,假设每个三角面片候选标签为k,每个节点向相邻节点传递消息的复杂度为O(k2),则所有节点传递一遍的复杂度为O(nk2),这种方式传递T遍的复杂度为O(nk2T)。目前小型结构光三维扫描仪获得的面片数量可达百万量级,对于大尺度的三维场景面片数量甚至上亿,这对计算机运行效率无疑是个巨大的挑战。近年来,计算机硬件大规模计算能力的发展,特别是GPU和分布式计算的发展,能将速度提高几十至上百倍,为实时高效的解决方案提供了可能。采用GPU计算或FPGA硬件进行算法加速[94],提升系统处理速度,是未来三维扫描系统集成化的发展趋势。

    2) 遮挡现象是纹理重建中普遍存在的问题,遮挡现象会对纹理图像的采集造成干扰,导致模型和纹理之间出现错误的纹理映射关系。遮挡可以是物体自身部分产生的遮挡(自遮挡),也可以是不同物体间的遮挡(相互遮挡),遮挡物可能是静态的(如电线杆,树木等),也可能是动态的(如行人,车辆等)。对遮挡问题的处理较为复杂,目前还没有完美的解决方案。Previtali等[95]通过面片投影到纹理图像上的重叠性判断面片是否遮挡,但容易出现“误判”,需附加额外的判断,降低了运行效率,其他一些文献[96-97]则采用多视图方法去除静态物体的遮挡,Waechter等[54]通过颜色一致性去除动态物体的遮挡,这些方法或多或少存在处理痕迹残留。因此,提高去遮挡算法的抗干扰能力和稳健性是未来纹理重建方法研究重点之一。

    3) 纹理照片是在特定角度和特定光照条件下拍摄获得的,若要获得不同光照条件任意视点下真实的呈现效果,则需要获得物体表面光反射属性参数,因此,对光反射属性的重建是纹理重建技术发展中必然而迫切的一步。双向反射分布函数(BRDF)是用来描述物体表面反射行为的函数,真实感图形学对物体表面的反射进行了近似抽象分析,建立了各种BRDF光照模型[98-100]。基于现有三维扫描仪,选取合适的光照模型,获得物体表面光反射属性参数,对于三维模型的真实感呈现,尤其是高反射率属性的材质(如玻璃、金属等)的纹理重建具有重要意义。

    除此之外,整个三维重建过程中,相机标定、图像配准及纹理映射等流程并不是完全孤立的,各个流程之间存在很强的关联性,如孙士杰等[101]利用彩色编码相移光栅对物体进行投影,同时完成三维形貌和纹理信息的提取。因此,如何充分整合各个流程获取的数据,形成一个通用的可扩展框架,用以生成高精度、拥有丰富纹理细节的数字模型,也是未来纹理重建方法中的研究重点。随着“中国制造2025”、“工业4.0”等战略的实施,彩色三维模型重建技术在未来的教育、医疗及辅助设计等领域将会具有更加广阔的应用前景。

    The authors have declared that no competing interests exist.

    作者已声明无竞争性利益关系。

    参考文献
    1Ding S W, Zhang X H and Yu Q F, et al. Overview of non-contact 3D reconstruction measurement methods [J]. Laser & Optoelectronics Progress, 2017, 54(7).
    丁少闻,张小虎,于起峰, .非接触式三维重建测量方法综述[J].激光与光电子学进展, 2017, 54(7).
    2Sutherland I E, Sproull R F and Schumacker R A. A characterization of ten hidden-surface algorithms [J]. ACM Computing Surveys, 1974, 6(1):1-55.
    3Levoy M, Pulli K and Curless Bet al, 2000,
    4An Y T and Zhang S. Three-dimensional absolute shape measurement by combining binary statistical pattern matching with phase-shifting methods [J]. Applied Optics, 2017, 56(19):5418-5426.
    5Li B W and Zhang S. Superfast high-resolution absolute 3D recovery of a stabilized flapping flight process [J]. Optics Express, 2017, 25(22):27270-27282.
    6Hyun J S. Chiu G T C, Zhang S. High-speed and high-accuracy 3D surface measurement using a mechanical projector [J]. Optics Express, 2018, 26(2):1474-1487.
    7Izadi S, Kim D and Hilliges Oet al, 2011,
    8Chen D G.Lin C H. Resolving three dimensional spatial information using time-shared structured lighting that embeds digital communication: US9930320B2.[P].2018, -03-27[2018-04-10].
    9Cui H N, Shen S H and Hu Z Y. Global fusion of generalized camera model for efficient large-scale structure from motion [J]. Science China(Information Sciences), 2017, 60
    10Dong Q L, Shu M and Cui H N, et al. Learning stratified 3D reconstruction [J]. Science China (Information Sciences), 2018, 61
    11Wang J L, Lu Y H and Liu J B, et al. A robust three-stage approach to large-scale urban scene recognition [J]. Science China (Information Sciences), 2017, 60
    12Zhou L, Zhu S Y and Shen T Wet al, Progressive large scale-invariant image matching in scale space [J]. [C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice. New York: IEEE, 2017,
    13Zhang R Z, Zhu S Y and Fang Tet al, Distributed very large scale bundle adjustment by global camera consensus [J]. [C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017,
    14Su X Y, Zhang Q C and Chen W J. Three-dimensional imaging based on structured illumination [J]. Chinese Journal of Lasers, 2014, 41(2).
    苏显渝,张启灿,陈文静.结构光三维成像技术[J].中国激光, 2014, 41(2).
    15Lu M T, Su X Y and Cao Y P, et al. 3D shape reconstruction algorithms for modulation measuring profilometry with synchronous scanning [J]. Chinese Journal of Lasers, 2016, 43(3).
    卢明腾,苏显渝,曹益平, .同步扫描的调制度测量轮廓术三维面形重建算法[J].中国激光, 2016, 43(3).
    16Jing H L, Su X Y and You Z S. Uniaxial three-dimensional shape measurement with multioperation modes for different modulation algorithms [J]. Optical Engineering, 2017, 56(3).
    17Zhou P, Zhu J P and Su X Y, et al. Three-dimensional shape measurement using color random binary encoding pattern projection [J]. Optical Engineering, 2017, 56(10).
    18Liu S Q, Zhong J G and Ma X, et al. Embossed imaging technology based on phase-shifting structured light illumination [J]. Journal of Applied Optics, 2017, 38(3):392-399.
    刘淑琴,钟金钢,马骁, .基于相移结构光照明的浮雕成像技术研究[J].应用光学, 2017, 38(3):392-399.
    19Zhao M L, Ma X and Zhang Z B, et al. Three-dimensional shape absolute measurement based on laser speckles [J]. Chinese Journal of Lasers, 2016, 43(2).
    赵明路,马骁,张子邦, .激光散斑三维形貌绝对测量技术[J].中国激光, 2016, 43(2).
    20Zhang Z B and Zhong J G. Three-dimensional single-pixel imaging with far fewer measurements than effective image pixels [J]. Optics Letters, 2016, 41(11):2497-2500.
    21He J Y, Liu X L and Peng X, et al. Integer pixel correlation searching for three-dimensional digital speckle based on gray constraint [J]. Chinese Journal of Lasers, 2017, 44(4).
    何进英,刘晓利,彭翔, .基于灰度约束的三维数字散斑整像素相关搜索[J].中国激光, 2017, 44(4).
    22Cai Z W, Liu X L and Li A M, et al. Phase-3D mapping method developed from back-projection stereovision model for fringe projection profilometry [J]. Optics Express, 2017, 25(2):1262-1277.
    23Cai Z W, Liu X L and Peng X, et al. Universal phase-depth mapping in a structured light field [J]. Applied Optics, 2018, 57(1):A26-A32.
    24Cai Z W, Liu X L and Peng X, et al. Ray calibration and phase mapping for structured-light-field 3D reconstruction [J]. Optics Express, 2018, 26(6):7598-7613.
    25Catmull E E. A subdivision algorithm for computer display of curved surfaces [D]. Salt Lake City: The University of Utah, 1974.
    26Blinn J F and Newell M E. Texture and reflection in computer generated images [J]. Communications of the ACM, 1976, 19(10):542-547.
    27Bier E and Sloan K R. Two-part texture mappings [J]. IEEE Computer Graphics and Applications, 1986, 6(9):40-53.
    28Debevec P E, Taylor C J and Malik J, 1996,
    29Debevec P, Yu Y Z and Borshukov G, Efficient view-dependent image-based rendering with projective texture-mapping [J]. [C]∥Proceedings of the Eurographics Workshop, June 29-July 1, 1998, Vienna. Vienna: Springer, 1998,
    30Pulli K, Abi-Rached H and Duchamp Tet al, Acquisition and visualization of colored 3D objects [J]. [C]∥Proceedings of Fourteenth International Conference on Pattern Recognition, August 20-20, 1998, Brisbane. New York: IEEE, 1998, 6096417
    31Hartley R and Zisserman A. Multiple view geometry in computer vision [J]. Kybernetes, 2004, 30(9/10):1865-1872.
    32Brown D C. Close-range camera calibration [J]. Photogrammetric Engineering, 1971, 37(8):855-866.
    33Franken T, Dellepiane M and Ganovelli F, et al. Minimizing user intervention in registering 2D images to 3D models [J]. Visual Computer, 2005, 21(8/9/10):619-628.
    34Liu L and Stamos I, Automatic 3D to 2D registration for the photorealistic rendering of urban scenes [J]. [C]∥2005 IEEE Conference on Computer Vision and Pattern Recognition, June 20-25, 2005, San Diego. New Tork: IEEE, 2005, 8624028
    35Neugebauer P J and Klein K. Texturing 3D models of real world objects from multiple unregistered photographic views [J]. Computer Graphics Forum, 1999, 18(3):245-256.
    36Ikeuchi K, Nakazawa A and Hasegawa Ket al, The great buddha project: modeling cultural heritage for VR systems through observation [J]. [C]∥The Second IEEE and ACM International Symposium on Mixed and Augmented Reality, October 10-10, 2003, Tokyo. New York: IEEE, 2003,
    37Yang G, Becker J and Stewart C V, Estimating the location of a camera with respect to a 3D model [J]. [C]∥Sixth International Conference on 3-D Digital Imaging and Modeling, August 21-23, 2007, Montreal. New York: IEEE, 2007,
    38Wu C, Clipp B and Li Xet al, 3D model matching with viewpoint-invariant patches (VIP) [J]. [C]∥2008 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2008, Anchorage. New York: IEEE, 2008, 10139806
    39Besl P J and Mckay N D. Method for registration of 3-D shapes [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1992, 14(2):239-256.
    40Xiong F G, Huo W and Han X, et al. Removal method of mismatching keypoints in 3D point cloud [J]. Acta Optica Sinica, 2018, 38(2).
    熊风光,霍旺,韩燮, .三维点云中关键点误匹配剔除方法[J].光学学报, 2018, 38(2).
    41Steinbrücker F, Sturm J and Cremers D, Real-time visual odometry from dense RGB-D images [J]. [C]∥2011 IEEE International Conference on Computer Vision Workshops, November 6-13, 2011, Borcelona. New York: IEEE, 2011,
    42Matsushita K and Kaneko T. Efficient and handy texture mapping on 3D surfaces [J]. Computer Graphics Forum, 1999, 18(3):349-358.
    43Dellepiane M and Scopigno R, Global refinement of image-to-geometry registration for color projection [J]. [C]∥2013 Digital Heritage International Congress, October 28-November 1, 2013, Marseille. New York: IEEE, 2013,
    44Zhou Q Y and Koltun V. Color map optimization for 3D reconstruction with consumer depth cameras [J]. ACM Transactions on Graphics, 2014, 33(4).
    45Zhang F, Huang H, Zhang Z, Remote Sensing and Spatial Information Scienceset al. High precision texture reconstruction for 3D sculpture model[J], XXXIX- [J]. 2012, B5:139-143.
    46Walkowski F, Johnston R A and Price N B, Texture mapping for the fastSCAN TM hand-held laser scanner [J]. [C]∥2008 23rd International Conference Image and Vision Computing New Zealand, November 26-28, 2008, Chriatchurch. New Tork: IEEE, 2009, 10400909
    47Pagés R, Berjón D and Morán F, et al. Seamless, static multi-texturing of 3D meshes [J]. Computer Graphics Forum, 2015, 34(1):228-238.
    48Niem W and Broszio H, Mapping texture from multiple camera views onto 3D-object models for computer animation [J]. [C]∥Proceedings of the International Workshop on Stereoscopic & Three Dimensional Imaging, September 6-8, 1995, Santorini, Greece., 1995,
    49Callieri M, Cignoni P and Scopigno R, Reconstructing textured meshes from multiple range RGB maps [J]. [C]∥Vision, Modeling, and Visualization Conference 2002, November 20-22, 2002, Erlangen. Holland: IOS press, 2002,
    50Rocchini C, Cignoni P and Montani C, et al. Acquiring, stitching and blending diffuse appearance attributes on 3D models [J]. Visual Computer, 2002, 18(3):186-204.
    51Lempitsky V and Ivanov D, Seamless mosaicing of image-based texture maps [J]. [C]∥2007 IEEE Conference on Computer Vision and Pattern Recognition, June 17-22, 2007, Minneapolis. New York: IEEE, 2007, 9737957
    52Allene C, Pons J P and Keriven R, Seamless image-based texture atlases using multi-band blending [J]. [C]∥2008 19th International Conference on Pattern Recognition, December 8-11, 2008, Tampa. New York: IEEE, 2008, 10458222
    53Gal R, Wexler Y and Ofek E, et al. Seamless montage for texturing models [J]. Computer Graphics Forum, 2010, 29(2):479-486.
    54Waechter M, Moehrle N and Goesele M, Let there be color! Large-scale texturing of 3D reconstructions [J]. [C]∥European Conference on Computer Vision, September 6-12, 2014, Zurich, Switzerland. Cham: Springer, 2014, 8693:836-850.
    55Jiang H Q, Wang B S and Zhang G F, et al. High-quality texture mapping for complex 3D scenes [J]. Chinese Journal of Computers, 2015, 38(12):2349-2360.
    姜翰青,王博胜,章国锋, .面向复杂三维场景的高质量纹理映射[J].计算机学报, 2015, 38(12):2349-2360.
    56Shu J, Liu Y G and Li Jet al, Rich and seamless texture mapping to 3D mesh models [J]. [C]∥Chinese Conference on Image and Graphics Technologies, July 8-9, 2016, Beijing. Singapore: Springer, 2016, 634:69-76.
    57Li M, Zhang W L and Fan D Y. Automatic texture optimization for 3D urban reconstruction [J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(3):338-345.
    李明,张卫龙,范丁元.城市三维重建中的自动纹理优化方法[J].测绘学报, 2017, 46(3):338-345.
    58Wang Z and Geng W, Generation of view-dependent textures for an inaccurate model [J]. [C]∥2017 IEEE/ACIS 16th International Conference on Computer and Information Science, May 24-26, 2017, Wuhan. New York: IEEE, 2017, 17000151
    59Chen Z L, Zhou J and Chen Y Set al, 3D texture mapping in multi-view reconstruction [J]. [C]∥International Symposium on Visual Computing, July 16-18, 2012, Rethymnon. Berlin, Heidelberg: Springer, 2012, 7431:359-371.
    60Pérez P, Gangnet M and Blake A. Poisson image editing [J]. ACM Transactions on Graphics, 2003, 22(3):313-318.
    61Eisemann M, Decker B D and Magnor M, et al. Floating textures [J]. Computer Graphics Forum, 2008, 27(2):409-418.
    62Dellepiane M, Marroquim R and Callieri M, et al. Flow-based local optimization for image-to-geometry projection [J]. IEEE Transactions on Visualization and Computer Graphics, 2012, 18(3):463-474.
    63Horn B K P and Schunck B G. Determining optical flow [J]. Artificial Intelligence, 1981, 17(1/2/3):185-203.
    64Lensch H P A, Heidrich W and Seidel H P, Automated texture registration and stitching for real world models [J]. [C]∥Proceedings of the 8th Pacific Conference on Computer Graphics and Applications, October 3-5, 2000, Washington. New York: IEEE, 2000,
    65Rocchini C, Cignoni P and Montani Cet al, Multiple textures stitching and blending on 3D objects [J]. [C]∥Proceeding of Eurographics Rendering, June 21-23, 1999, Granada, Spain. Vienna: Spinger, 1999,
    66Baumberg A, 2002,
    67Wang L, Kang S B and Szeliski Ret al, Optimal texture map reconstruction from multiple views [J]. [C]∥Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, December 8-14, 2001, Kauai, HI, USA. New York: IEEE, 2001, 7176885
    68Bernardini F, Martin I M and Rushmeier H. High-quality texture reconstruction from multiple scans [J]. IEEE Transactions on Visualization and Computer Graphics, 2001, 7(4):318-332.
    69Callieri M, Cignoni P and Corsini M, et al. Masked photo blending: mapping dense photographic data set on high-resolution sampled 3D models [J]. Computers & Graphics, 2008, 32(4):464-473.
    70Liu X M, Liu X L and Yin Y K, et al. Texture blending of 3D photo-realistic model [J]. Journal of Computer-Aided Design & Computer Graphics, 2012, 24(11):1440-1446.
    刘星明,刘晓利,殷永凯, .真实感三维模型的纹理融合[J].计算机辅助设计与图形学学报, 2012, 24(11):1440-1446.
    71Jiang C S, Christie D and Paudel D Pet al, High quality reconstruction of dynamic objects using 2D-3D camera fusion [J]. [C]∥2017 IEEE International Conference on Image Processing, September 17-20, 2017, Beijing. New York: IEEE, 2017, 17597138
    72Ma L, Do L and Bondarev Eet al, 3D colored model generation based on multiview textures and triangular mesh [J]. [C]∥2013 Seventh International Conference on Distributed Smart Cameras, October 29-November 1, 2013, Palm Springs, CA, USA. New York: IEEE, 2013, 14197187
    73Bi S, Kalantari N K and Ramamoorthi R. Patch-based optimization for image-based texture mapping [J]. ACM Transactions on Graphics, 2017, 36(4):1-11.
    74Simakov D, Caspi Y and Shechtman Eet al, Summarizing visual data using bidirectional similarity [J]. [C]∥2018 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2008, Anchorage, AK, USA. New York: IEEE, 2008, 10140146
    75Wang Z, Bovik A C and Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity [J]. IEEE Transactions on Image Processing, 2004, 13(4):600-612.
    76Xu S C, Ye X Z and Wu Yet al, Highlight detection and removal based on chromaticity [J]. [C]∥International Conference Image Analysis and Recognition, September 28-30, 2005, Toronto. Berlin: Springer, 2005, 3626:199-206.
    77Hoiem D, Single-image shadow detection and removal using paired regions [J]. [C]∥2011 IEEE Conference on Computer Vision and Pattern Recognition, June 20-25, 2011, Providence. New York: IEEE, 2011, 12218867
    78Birsak M, Musialski P and Arikan Met al, Seamless texturing of archaeological data [J]. [C]∥Digital Heritage International Congress, October 28-November 1, 2013, Marseille. New York: IEEE, 2013, 14143729
    79Heindl C, Akkaladevi S C and Bauer H, Photorealistic texturing of human busts reconstructions [J]. [C]∥7th International Conference on 3D Body Scanning Technologies, November 30-December 1, 2016, Lugano, Switzerland. Ascona: Hometrica Consulting, 2016,
    80Velho L and Júnior J S. Projective texture atlas construction for 3D photography [J]. Visual Computer, 2007, 23(9-11):621-629.
    81Chuang M, Luo L and Brown B J, et al. Estimating the laplace-beltrami operator by restricting 3D functions [J]. Computer Graphics Forum, 2010, 28(5):1475-1484.
    82Dessein A, Smith W A P, Wilson R C, et al. Seamless texture stitching on a 3D mesh by poisson blending in patches [J]. [C]∥2014 IEEE International Conference on Image Processing, October 27-30, 2014, Paris. New York: IEEE, 2015, 14884131
    83Pan R J and Taubin G. Color adjustment in image-based texture maps [J]. Graphical Models, 2015, 79:39-48.
    84Troccoli A and Allen P. Building illumination coherent 3D models of large-scale outdoor scenes [J]. International Journal of Computer Vision, 2008, 78(2/3):261-280.
    85Laffont P Y, Bousseau A and Paris S, et al. Coherent intrinsic images from photo collections [J]. ACM Transactions on Graphics, 2012, 31(6):1-11.
    86Agathos A and Fisher R B, Colour texture fusion of multiple range images [J]. [C]∥Proceedings of Fourth International Conference on 3-D Digital Imaging and Modeling, October 6-10, 2003, Banff. New York: IEEE, 2003, 8322497
    87Bannai N, Agathos A and Fisher R B, Fusing multiple color images for texturing models [J]. [C]∥Proceedings 2nd International Symposium on 3D Data Processing, Visualization and Transmission, September 9, 2004, Thessaloniki. New York: IEEE, 2004, 8224592
    88Bannai N, Fisher R B and Agathos A. Multiple color texture map fusion for 3D models [J]. Pattern Recognition Letters, 2007, 28(6):748-758.
    89Xu L, Li E and Li J Get al, A general texture mapping framework for image-based 3D modeling [J]. [C]∥Proceedings of 2010 IEEE International Conference on Image Processing, September 26-29, 2010, Hong Kong. New York: IEEE, 2010, 11692796
    90Park I K, Zhang H and Vezhnevets V. Image-based 3D face modeling system [J]. EURASIP Journal on Advances in Signal Processing, 2005, 2005(13):1-19.
    91Lee W B, Man H L and Park I K, Photorealistic 3D face modeling on a smartphone [J]. [C]∥2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, June 20-25, 2011, Colorado Springs. New York: IEEE, 2011,
    92Ma Q, Ge B Z and Chen L. Correction technique for color difference of multi-sensor texture [J]. Journal of Computer Applications, 2016, 36(4):1075-1079.
    马倩,葛宝臻,陈雷.多传感器彩色纹理色彩差异修正方法[J].计算机应用, 2016, 36(4):1075-1079.
    93Reinhard E, Adhikhmin M and Gooch B, et al. Color transfer between images [J]. IEEE Computer Graphics and Applications, 2002, 21(5):34-41.
    94Pintus R and Gobbetti E. A fast and robust framework for semiautomatic and automatic registration of photographs to 3D geometry [J]. Journal on Computing and Cultural Heritage, 2015, 7(4):1-23.
    95Previtali M, Barazzetti L and Scaioni M, An automated and accurate procedure for texture mapping from images [J]. [C]∥Proceedings of the 18th International Conference on Virtual Systems and Multimedia, September 2-5, 2012, Milan. New York: IEEE, 2012, 13154673
    96Ortin D and Remondino F, Occlusion-free image generation for realistic texture mapping [J]. [C]∥International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, August 22-24, 2005, Venice, Italy., 2005, 36(5/W17).
    97Li M, Guo B X and Zhang W L. An occlusion detection algorithm for 3D texture reconstruction of multi-view images [J]. International Journal of Machine Learning and Computing, 2017, 7(5):152-155.
    98Schirmacher H, Heidrich W and Rubick Met al, Image-based BRDF reconstruction [J]. [C]∥Proceedings of the 4th Conference on Vision, Modeling, and Visualization, November 17-19, 1999, Sankt Augustin. Holland: IOS press, 1999,
    99Tan P. Phong reflectance model [M]. ∥Ikeuchi K. Computer vision: a reference guide. Boston: Springer.. 2014.
    100Li H B, Wu L L and Wu Y. Two-step light source detection algorithm importing the 3D shadow and specular reflection [J]. Journal of Chinese Computer Systems, 2013, 34(4):892-896.
    101Sun S J, Zhai A P and Cao Y P. A fast algorithm for obtaining 3D shape and texture information of objects [J]. Acta Optica Sinica, 2016, 36(3).
    孙士杰,翟爱平,曹益平.一种快速获取物体三维形貌和纹理信息的算法[J].光学学报, 2016, 36(3).