激光与光电子学进展, 2021, 58 (2): 0200001, 网络出版: 2021-01-19   

基于相关全息原理的散射成像技术及其进展 下载: 2736次封面文章特邀综述

Progress on Scattering Imaging Technologies Based on Correlation Holography
作者单位
华侨大学信息科学与工程学院, 福建省光传输与变换重点实验室, 福建 厦门 361021
摘要
由于随机散射效应,相干光束经过强散射介质后,出射光场变成光强呈无序分布的散斑场,因此无法直接从出射场获取入射光的信息。然而,在随机散射过程中,出射散斑场仍然携带着入射光场信息。从散斑场中获取原始信息以实现物体的重建是一个备受关注的研究课题。研究人员针对该问题提出了包括散斑相关、传输矩阵、波前调控及时间反演与相位共轭等技术。着重介绍了基于相关全息原理的散射成像技术,主要包括其原理、发展历史以及最新的研究进展,并对该技术的未来发展趋势进行了展望。
Abstract
When a coherent beam propagates through a strong scattering medium, a speckle pattern of the output field can be formed due to random scattering. As a consequence, it is impossible to directly acquire the original information of the input beam from the output scattering field. However, in the random scattering process, the output speckle pattern still contains the original information of the incident beam. The acquirement of the original information based on speckle patterns for the reconstruction of an object has become a hot research topic. As for this problem, the techniques including speckle correlation, transmission matrix, wavefront control as well as time reversal and phase conjugation have been proposed. The scattering imaging technique based on correlation holographic theory is mainly introduced, in which its principle, history and recent new progress are included. In addition, its future development is prospected.

1 引言

计算成像是传统光学成像与数学计算、信号处理、光学调控相结合的一种新型成像方式。不同于传统光学成像,计算成像基于光学测量硬件与信号处理软件的协同工作来实现特定的成像功能,可突破某些传统成像系统的物理极限,并可根据不同的任务需求进行灵活多变的调整,是未来成像技术发展的重要方向1-3。鬼成像,又称为关联成像,是一种典型的计算成像技术,其通过对场景的编码采样以及相应的重建计算来实现对场景的成像。

从技术发展历史来看,鬼成像和单像素成像是两项独立发展出来的技术,但它们的理论基础、实现方式以及重建算法却有诸多相似之处。鬼成像的最初概念是由Klyshko4在1988年提出,并由Pittman等5在1995年完成了实验验证。当时,鬼成像的特殊之处在于不依靠传统成像中的物像共轭关系,而是利用量子纠缠特性来对物体进行成像。该实验采用自发参量下转换生成纠缠光子对,其中一个光子与物体发生相互作用,利用纠缠光子对在空间与时间上的纠缠关系实现对实验物体的成像,所以早期鬼成像也被称为量子成像6-7。随后,研究者使用经典光源替代纠缠光子源,也完成了鬼成像的实验8-11,使得研究者对鬼成像的物理本质进行了激烈讨论612-16。最终,计算鬼成像的成功演示17-18证明了鬼成像可以通过经典光场的二阶互相关理论进行准确描述,而不是依赖于量子特性的成像技术。

另一方面,单像素成像技术起源于Candès等19-24提出的压缩感知概念,Duarte等25在2008年首次报道了相关实验。回顾科学发展史,利用单像素探测器进行成像的成功尝试最早可以追溯到19世纪80年代。研究者使用螺旋孔圆盘(又被称为Nipkow盘)制作了“电子望远镜”,其中硒光电池(一种早期的光电二极管)在不同时刻接收来自不同空间位置的通过Nipkow盘小孔的光强,并将其转换为电信号以记录相应的场景信息26。1929年,英国科学家Baird27将Nipkow盘应用于其首创的“电视放映机”中,实现了扫描式的电子图像显示技术。当然,这些早期技术与如今的单像素成像有两点显著不同。第一,早期技术采用的Nipkow盘的能量转换效率极低,是一种点扫描成像的方式,而单像素成像使用结构光照明或掩模采样的方式来实现高效率的扫描测量;第二,早期技术受奈奎斯特采样定理的限制,需要完全采样才可以生成图像,而单像素成像结合了压缩感知理论25,可在较大欠采样的情况下实现图像重建。

鬼成像和单像素成像具有特殊的成像方式,有潜力解决很多传统成像技术无法解决的难题,一些典型的开创性研究工作包括X射线28-30、紫外光31、红外光32-33和太赫兹波34-35的宽光谱成像、高时间分辨率成像36-38以及自适应空间分辨率成像39-40。鬼成像和单像素成像从两个完全不同的物理概念发展起来,如今已融合成为一种典型的计算成像技术,其中图像重建算法是该技术最重要的环节之一。本文重点介绍鬼成像和单像素成像中常见的重建算法。

2 鬼成像的二阶关联解释

为了使读者对鬼成像和单像素成像的发展历史有较清晰的总体认识,图1以重建算法为主线,按时间梳理了鬼成像和单像素成像发展过程中的一些代表性成果。

图 1. 鬼成像、压缩采样、单像素成像的发展时间轴

Fig. 1. Timeline of developments in ghost imaging, compressed sampling, and single-pixel imaging

下载图片 查看所有图片

基于量子纠缠的非定域效应来实现物体成像的想法最初是由Klyshko4于1988年提出的。1995年,Pittman等5根据Klyshko的设想完成了基于纠缠光子对的成像实验。实验系统如图2所示,首先研究者利用波长为351 nm的激光对具有Ⅱ型相位匹配的硼酸钡(BBO)晶体进行泵浦以生成波长为702 nm的纠缠光子对,两个光子的偏振态相互正交,分别被称为信号光子“signal”和参考光子“idler”。两个光子经过偏振分束器后被分离到不同的路径中:信号光子与物体发生相互作用,然后被单像素探测器采集;参考光子的空间强度分布被横向扫描光纤和单像素探测器组合测量。在实验过程中,信号光子不包含物体的空间信息,而参考光子从未与物体发生相互作用,因此无法单独利用两者中的任何一个来获得图像。只能利用两个探测器的测量结果进行相应的符合计数来实现图像重建,Pittman等5将其解释为是纠缠光子对的相干叠加结果,后因为该成像技术的量子纠缠非定域特性,又将其称为“鬼成像”13

图 2. 基于纠缠光子对的鬼成像实验图

Fig. 2. Experimental design of ghost imaging based on entangled photon pairs

下载图片 查看所有图片

有趣的是,文献[5]还预测了某些特定的经典光源在一定程度上也可以模拟“纠缠双光子的几何光学效应”。随后,使用各种形式的经典光源进行鬼成像的方案被接连报道,比如使用斩波器的激光束和偏振激光束841、通过旋转漫射器的激光束9-10和铷空心阴极灯1142等,这些方案被称为经典光源鬼成像。在经典光源鬼成像中,如图3所示,随时间变化的光场被分为两束:照明物体的光束称为信号光束,其透射物体或经物体反射后的总光强被桶探测器(会聚透镜和单像素探测器的组合)采集;另一束光称为参考光束,在理论上与信号光束有相同的归一化空间强度分布并由面阵探测器测量。同样,这两束光均不包含足够的信息,无法单独恢复物体图像,必须对这两束光的测量光强值进行关联计算才可以实现图像重建,所以经典光源鬼成像又被称为二阶关联成像43图3(a)是无透镜的经典光源鬼成像实验图,其中光源到物体u1的距离dA与光源到参考光探测面u2的距离dB相等。图3(b)是点对点经典光源鬼成像实验图,其中成像透镜、光源、物体u1以及参考光探测面u2之间满足

1dA1+1dA2=1f1dA1+1dB2=1f

式中:dA1为光源到成像透镜的距离;dA2为成像透镜到物体u1的距离;dB2为成像透镜到参考光探测面u2的距离;f为成像透镜的焦距。

图 3. 使用经典光源的鬼成像实验图。(a)基于经典光源的无透镜鬼成像;(b)基于经典光源的点对点鬼成像

Fig. 3. Experimental design of ghost imaging based on classical light sources. (a) Lensless classical light ghost imaging; (b) speckle-to-speckle classical light ghost imaging

下载图片 查看所有图片

经典光源鬼成像实验的成功演示引起了相关领域对鬼成像物理本质的激烈讨论。其中Shih15认为鬼成像的本质是量子的,他将无透镜鬼成像解释为一种非局部干涉现象,而点对点鬼成像是局部强度相关的结果。相反,Shapiro等1416认为鬼成像的本质是经典的,因为半经典光电探测理论可以很好地解释无透镜和点对点鬼成像现象。但Shapiro也提出“光本质上是量子的,高灵敏度光电探测是一种能揭示光照明中非经典特征的量子测量。因此,所有光学成像现象基本上都是量子的。”然而,经典光源鬼成像还是被大多数研究者认为是经典强度相关的结果。在我们看来,鬼成像并非量子的,最典型的证据是Shapiro17提出的计算鬼成像只有一条光路,如图4所示,空间光调制器向物体上投影的掩模图案是以数字信息的形式储存的,且是被计算得到的,没有被实际测量,这一过程无法满足量子纠缠的条件,因此量子纠缠特性不是鬼成像的必要条件,其中SLM为空间光调制器。

图 4. 无透镜的计算鬼成像实验图

Fig. 4. Experimental design of computational lensless ghost imaging

下载图片 查看所有图片

下面简要介绍二阶关联成像的原理。一阶关联函数是光场的电场强度之间的相互关联,对于光场中两个任意时空点r1,t1r2,t2,其一阶关联函数定义为

G1r1,r2,t1,t2=E*r1,t1Er2,t1

式中:E为电场强度;*为复数共轭;为计算统计平均。二阶关联函数可以理解为是光强之间的相互关联,对于光场中两个任意时空点r1,t1r2,t2,其二阶关联函数定义为

G2r1,r2,t1,t2=E*r1,t1E*r2,t2Er1,t1Er2,t2=Lr1,t1Lr2,t2

式中:L为光强,且L=E*E。归一化的二阶关联函数为

g2r1,r2,t1,t2=G2r1,r2,t1,t2Lr1,t1Lr2,t2=Lr1,t1Lr2,t2Lr1,t1Lr2,t2

定义光强的涨落值ΔL

ΔL=L-L

并将(6)式代入(4)式中,整理得

G2r1,r2,t1,t2=ΔLr1,t1+Lr1,t1ΔLr2,t2+Lr2,t2=Lr1,t1Lr2,t2+ΔLr1,t1ΔLr2,t2

对(7)式进行归一化处理,得

g2r1,r2,t1,t2=1+ΔLr1,t1ΔLr2,t2Lr1,t1Lr2,t2

归一化的二阶关联函数的第一项是固定值,表示光场的直流分量;后一项表示两个不同时空光场的强度涨落,通过对该项的计算可以恢复物体的特征信息。所以关联成像是基于光场的二阶相关性即强度关联来进行成像的方式。在实验中得到的光强涨落项往往远小于1,导致g2很容易被淹没在噪声中,对此常使用差分检测的方法来减少测量噪声44

3 单像素成像的信号采样解释

在鬼成像领域的学者激烈讨论鬼成像物理本质的同时,基于压缩感知理论的单像素成像方案1825被提出。随后,研究者意识到鬼成像在系统构成、数据采集、图像重建等环节与单像素成像非常相似,鬼成像与单像素成像技术开始紧密整合并共同发展。两项技术在光学方案上最显著的区别是空间光调制器的摆放位置。单像素成像系统的空间光调制器位于后端,用于执行掩模采样,如图5(a)所示。而计算鬼成像系统的空间光调制器位于前端,用于提供结构化照明45,如图5(b)所示。此外,从物像共轭关系的角度来看,我们也可以看到一些相似但不同的地方。单像素成像系统中的成像透镜使物体与空间光调制器共轭,满足

1d1+1d2=1f1

式中:d1为物体到成像透镜的距离;d2为成像透镜到空间光调制器的距离;f1为成像透镜的焦距。其物像共轭关系与传统成像系统相同,只是空间光调制器代替了胶片或面阵探测器。在有透镜的计算鬼成像系统中,成像透镜同样使空间光调制器和物体共轭,满足

1d3+1d4=1f2

式中:d3为空间光调制器到成像透镜的距离;d4为成像透镜到物体的距离;f2为成像透镜的焦距。可以看到,物体和收集光强度的单像素探测器之间不再存在共轭关系,而物体和提供结构化照明的设备(通常是空间光调制器)之间存在共轭关系。有争议的一点是,一些研究认为计算鬼成像中不再存在共轭关系,因此物体和探测器的位置不再受限制,可实现散射成像或拐角非视距成像。然而我们认为,计算鬼成像系统依然存在共轭限制,只是将这一物像共轭的限制从探测端转移到了照明端,当然,这也使得计算鬼成像在具体应用中更加灵活,我们将在讨论与展望中进行说明。

图 5. 单像素成像和计算鬼成像的实验系统图。(a)单像素成像系统图;(b)有成像透镜计算鬼成像系统图

Fig. 5. Experimental designs of single-pixel imaging and computational ghost imaging. (a) System scheme of single-pixel imaging; (b) system scheme of computational ghost imaging with imaging lens

下载图片 查看所有图片

单像素成像系统的信号采样前向数学模型可以由矩阵计算的形式直观表示。若二维图像共有N个值,则可以用一维列向量表示待成像场景,如O=o1,o2,,oNT,其中元素值表示场景对应空间位置处的反射率值或折射率值。最简单的方法是用点扫描的方式对场景中的N个坐标进行逐一测量来得到图像46-48,但是这种方法需要较多测量次数,采样时间较长。一个更好的方法是用面阵探测器[如电荷耦合元件(CCD)或互补金属氧化物半导体(CMOS)]对场景的N个位置在一次曝光中进行同时成像,采样时间大大减少。但是在某些非可见光波段处进行成像或单光子计数时,往往没有成熟的面阵探测器,在这种情况下就必须使用单像素探测器。与点扫描方式相比,单像素成像技术的采样方式更加灵活,可通过在空间光调制器上加载不同的掩模来快速实现对场景的不同分辨率、不同视场的成像。由于待测量的场景是与空间光调制器共轭的,因此空间光调制器上所加载的第i个掩模图案pi与场景之间的空间坐标是相互对应的。pi也含有N个元素,分别对应N个空间坐标位置处的掩模强度,可以表示为pi=[pi1,pi2,,piN]。那么每次测量时,单像素探测器所接收到的总信号sipiO的乘积,即

si=pi×O

在进行M次测量后,可以得到测量矩阵S

S=P×O

式中:S=s1,s2,,si,,sMTP=p1,p2,,pi,,pMT。利用(12)式可以准确建立单像素成像的正向数学模型,通过适当的逆向重建算法即可恢复出场景O。为了完美求解(12)式,有两个条件需要满足:i)M=N,ii)矩阵P是满秩的。否则(12)式就是非适定的。

当上述两个条件i)、ii)均满足时,可以通过计算矩阵P的逆P-1来重建图像I,这是最典型的逆向重建算法,即

I=P-1×S=P-1×P×O=O

在不引入噪声的情况下,得到的重建图像I与测量场景O是相同的。但是当矩阵P的阶数较大时,矩阵逆的计算量很大而难以重建。因此常要求矩阵P是正交的(P×PT=E,其中E为单位矩阵),图像I就可重建为

I=PT×S=P-1×S=O

当(12)式是非适定时,只能通过其他逆向重建算法计算得到场景O的近似解,其中压缩感知就是最典型的算法,其将求解非适定方程转换为凸优化问题,在较少的采样次数下就可较为准确地恢复场景O

4 压缩感知理论与应用

压缩感知是一个基于凸优化理论的通用信号恢复方法,其对可压缩信号或图像进行少量的非自适应线性测量来获取足够的信息用于重建或处理19-24。压缩感知的实现机理与单像素成像高度吻合25,将压缩感知应用于单像素成像中可在保障重建图像质量的前提下有效减少采样时间。

传统的信号采样过程遵循奈奎斯特采样定理,即以大于或等于信号最高频率两倍的采样率对信号进行等间隔采样49-50。在面阵探测器(如CCD或CMOS)中,图像被表征为二维矩阵,其中共有N个像素值,采集到的信号可以表示为N×1向量,即x=x1,x2,,xNT。当所采集的信号尺度N较大时,常对其进行压缩以便于储存或传输。由于大多数信号在正交基下有稀疏表示,因此原始图像数据x常被变换编码算法压缩22,即

xN×1=ΨN×NαN×1

式中:N×N正交矩阵ΨN×N=ψ1,ψ2,,ψNNN×1的正交向量(又被称为稀疏基)组成,称为稀疏矩阵,常用的稀疏矩阵有离散余弦矩阵51、小波矩阵52等;αN×1K稀疏的N×1系数向量,K稀疏是指αN×1中只有K个系数是显著非0的,并且KN,在储存和传输中只保留K个显著系数而丢弃其他系数以实现信号的压缩,就像最为典型的图像压缩算法JPEG和JPEG200053-54

既然原始信号在变换编码后有大量绝对值很小的系数要丢弃,那么完整采样所有数据是非常不经济的。因此,压缩感知执行稀疏采样,使用M<N次的线性测量,得到测量向量yM×1,即

yM×1=ΦM×NxN×1=ΦM×NΨN×NαN×1

式中:ΦM×N是采样矩阵。从低维的测量值yM×1中恢复出高维的系数向量αN×1是一个不适定的问题,而αN×1K稀疏的,使得求解不适定方程成为可能。但是使用最小二乘法进行求解将有很大概率失效,另一种替代的方法是使用𝓁1约束优化,即

P1 argminα1,  subject to y=ΦΨα

这是一个凸优化问题,与非凸问题相比,其在优化过程中不会陷入局部最优解而是始终在寻找全局最优解,确保了重建解的正确性。只需M

OKlnN/K次随机测量2555,就可以以很大的概率精确地重建K稀疏系数向量α。但是在实验过程中,测量很容易被噪声污染,那么𝓁1约束优化问题可以表示为

P2 argminα1,  subject to y-ΦΨα2 ε

式中:ε为噪声上限。P2可以转换为二阶圆锥规划问题,并由标准凸优化算法求解。P2的解α2*很接近α,满足α2*-α2Cε,其中C为一个很小的常数。

若待求解的优化问题是重建图像,则可将𝓁1约束项替换为更为直观的全变分(TV)或全曲率(TC)正则化,即

ITV=Ix+IyITC=2Ix2+2Iy2

优化问题更换为P3P4,即

P3 argminITV or TC,  subject to y=ΦIP4 argminITV or TC,  subject to y-ΦI2 ε

在优化中用TV或TC正则化代替𝓁1约束项可以使得重建图像的边缘更加清晰,从而更精确地保留了图像的高频信息。但是,TV或TC正则化更加严格,其假设图像的梯度或二阶梯度是稀疏的56-57,且不可微性和非线性特性使重建计算更加困难。

由于在单像素成像过程中需要使用空间光调制器对场景进行掩模采样,若每次采样使用的掩模图案是采样矩阵Φ的行向量,则可实现压缩感知,因此压缩感知可以很自然地融入进单像素成像技术中。基于压缩感知的单像素成像有两个核心问题:采样矩阵Φ的设计以及快速且准确的重建算法。

压缩感知需要从低维的测量值中精确重建出高维信号,如(16)式所示的不适定方程,常将其转换为P1P2P3P4的凸优化问题进行求解,通过使用适当的优化算法可以逆向重建出接近于原信号的解。为了求解P1P2的最小𝓁1约束问题以重建图像,常使用贪婪迭代优化算法。最基础的迭代优化算法是匹配追踪(MP)算法58,其在每一轮迭代中从采样矩阵Φ中选出对测量值y贡献最大的采样基作为原始信号x的稀疏逼近,并以残差作为评价指标进行多次迭代。为了提高重建精度并减小计算复杂度,其他改进算法在该算法的基础上添加了一些迭代修正,比如正交匹配追踪(OMP)算法59、正则化正交匹配追踪(ROMP)算法60、压缩采样匹配追踪(CoSaMP)算法61。匹配追踪算法有较快的计算速度,但是需要较多的采样次数,对小尺度信号的重建效果较好,但对大尺度信号的重建效果不理想。

为了解决这一问题,许多凸优化算法被提出以用于对大尺度稀疏信号的有效重建,这些算法对噪声有较高的鲁棒性。其中最典型的算法是基追踪(BP)算法62,其将凸优化问题转换为线性规划问题进行求解。常用的标准凸优化算法还有梯度投影法(GP)63、内点法(IP)64、同伦算法(HP)65、迭代阈值法(IST)66等。

为了求解P3P4的最小化TV和TC问题,𝓁1-Magic2367、两步迭代收缩阈值算法(TwIST)6668、平滑凸优化算法(NESTA)69、广义交替投影算法(GAP)70以及交替乘子算法(ADMM)71经常被使用。𝓁1-Magic将TV最小化问题转化为二阶圆锥问题进行求解;当线性观测算子条件不佳时,TwIST可以实现比IST更快的收敛速度;NESTA通过修正目标函数的平滑估计来逼近TV最小化;GAP通过引入辅助变量来交替进行欧几里得投影与TV去噪操作,在保证收敛的同时有较高的效率且计算复杂度较低;ADMM引入了线性逼近以在二次惩罚项系数很小的情况下也能求得满足精度要求的解。研究者提出一个性能更加强劲的算法,叫作增强拉格朗日函数的总变化最小化算法(TVAL3)57。该算法将交替方向技术与非单调线搜索有效地结合在一起,在每次迭代时最小化增强的拉格朗日函数。在对比测试中,TVAL3可以在最短的时间内恢复出最高质量的重建图像,GAP和ADMM能够在可接受的时间范围内得到高质量的重建图像,TwIST和NESTA可以在合理的时间内得到中等质量的图像,而𝓁1-Magic的计算花费了大量时间57

虽然压缩感知可以凭借较少的测量次数较准确地重建稀疏场景的图像,但是重建所需的计算开销和恢复时间是不可忽略的,因此不适于实时成像。但在一些目标检测、识别和分类应用中,不需要完整的重建,只需要足够的相关统计估算,可以使用尺寸缩小的匹配滤波器(粉碎滤波器)在采样过程中执行所有操作25。此外,机器学习在处理以上任务中会有更优异的表现。

5 采样图案的选择和实现

5.1 采样图案

如第4节所述,在单像素成像中,需要使用适当的采样基对场景进行采样,采样基在成像过程中的二维表现形式即为采样图案,其由空间光调制器显示生成。在计算鬼成像中,采样图案以结构光的形式投影到待测量场景中,而单像素成像中采样图案以掩模的形式对场景进行编码采样。本节将简要介绍鬼成像和单像素成像中常用的采样图案。

采样矩阵Φ的设计对基于压缩感知的单像素成像技术起着决定性的作用。采样矩阵Φ的设计应保证在不丢失场景重要信息的情况下使用较少的测量次数对场景进行采样,从而能够精确重建图像。因此,有两个条件需要满足。第一,采样矩阵Φ应与稀疏矩阵Ψ高度不相关24。低相关度确保压缩感知有较高的采样效率,在相同采样次数下可以获得更多的稀疏系数,最理想的情况是采样矩阵Φ与稀疏矩阵Ψ正交。第二,要求传感矩阵ΘM×N=ΦM×NΨN×N满足2K'阶有限等距原理(RIP)。该性质保证从传感矩阵Θ中任意抽取的2K'个列向量是互不相关的6772,这可以使稀疏系数向量α的欧氏距离被限制在一个较小的范围内,使得y=Θα不适定方程有有限个解。往往采样矩阵Φ与稀疏矩阵Ψ有较低相关度时即可使得传感矩阵Θ满足有限等距原理。一些研究73表明,随机矩阵有很大的概率可以满足上述两个条件,比如高斯矩阵和伯努利矩阵。

在经典光源鬼成像中,常使用由旋转漫射器和激光器组合而成的赝热光源替代之前的纠缠光子对6810,激光透过旋转漫射器可产生伪随机的采样图案并对场景进行照明。这相当于使用随机采样矩阵Φ对场景进行编码采样,并可使用线性迭代算法以很高的概率重建图像。在每次的采样过程中,面阵探测器测量出采样图案的强度分布pi,桶探测器测得信号强度si,在进行M次采样后由线性迭代算法来重建图像,即

I=1Mi=1Msipi

式中:si可以视为对应采样图案的加权因子。然后以加权平均的方式将所有采样图案添加到对场景的迭代估计中618285674-75。测量结果的部分相关性使得采样效率低下,往往需要MN次的测量,且只能近似达到完备测量,这使得重建像素值与真值之间存在差异,具体表现为重建图像中存在噪点。

随着微光电机系统(MOEMS)技术的逐渐成熟,研究者开始使用由计算机控制并编码的空间光调制器生成随机的掩模图案来代替旋转的漫射器,其中加载在空间光调制器上的掩模图案是已知的,不再需要面阵探测器进行测量,所以鬼成像光路由两路合并为一路,形成计算鬼成像的经典光路17-18。既然空间光调制器可实现对光场分布的可控调制,那么就可以投影高采样效率的掩模图案,在保证重建图像质量的同时降低采样时间。

由于大多数自然场景在Haar小波域中是可压缩的,因此与Haar小波不相关的Noiselet基76或Morlet Wavelet基与白噪声的卷积77常被用于单像素成像中。其可以在低采样率下获得高质量的重建图像,但是重建图像所使用的凸优化算法的计算开销较大,需要较长的恢复时间。

然而,大多数自然场景也可以在正交变换域里进行稀疏表达,所以单像素成像也常使用正交掩模图案,比如Hadamard基图案32-333878、Fourier基图案79-83和Wavelet基图案397684-85,可以在欠采样的情况下重建出较为清晰的图像。同时,正交掩模图案之间的低相关度可以确保每次采样得到的场景信息是彼此不相关的,可以有效提高采样效率。且当采样次数M与图像像素数N相等时,可实现完全采样,如(14)式所示,在忽略噪声的情况下,重建图像I与场景O一致。

Hadamard基图案和Fourier基图案是目前单像素成像中最常用的两种掩模图案。Hadamard基图案是二值的且呈马赛克状离散,非常适合在高速二值空间光调制器如数字微镜器件(DMD)上进行无量化误差显示,这使得重建图像有较好的噪声鲁棒性。此外,通过Kronecker积可以快速生成Hadamard基掩模,且可以使用线性迭代算法快速获得重建图像。Fourier基图案是灰度化的且呈条纹状,可以使用DMD时分复用功能进行灰度调制,或者使用其他空间光调制器来显示79,但调制速率大大降低。但是Fourier基图案可以用一些物理方式实现,比如远场衍射、用薄透镜实现物像变换等。由于大多数自然场景在Fourier域中更为稀疏,因此使用Fourier基掩模有更高的采样效率。同时,大多数自然场景在Fourier域中的频谱能量主要集中在低频,而Fourier基是从低频到高频排列的,所以使用Fourier矩阵的前一部分采样基进行欠采样可以获得质量较高的重建图像。

由于单像素成像系统需要多次采样后才可以获得足够多的信息来重建图像,在多次采样过程中,各种噪声的污染包括探测器噪声、照明在时间上的瞬时随机波动和长期漂移、照明的空间不均匀性等会降低重建图像的信噪比,使其失真4586。为了获得高质量的重建图像,通常使用差分检测的方法减少探测器噪声以及照明瞬时随机波动的影响。在Hadamard单像素成像中,一个掩模图案的差分强度信号是由两次测量的差得到的。一次是显示Hadamard基图案,另一次是显示其反图案,所以完全采样一幅N像素图像需要2N次测量79。而在Fourier单像素成像中,可以用三步相移技术实现差分强度测量,只需要1.5N次测量83。针对照明空间不均匀导致的重建图像失真的问题,可在实验过程中使用标定校正的方法来补偿不均匀的照明87,与图像处理的方法相比,该方法可以更准确地恢复场景。

5.2 实时单像素成像

为了在欠采样下实现具有低到中等图像分辨率的实时单像素成像,需要更少的采样时间、更高的重建图像质量和更快的重建算法。如第4节所述,基于压缩感知理论的单像素成像技术虽然只需要较少的采样次数就可实现图像重建,但是较大的重建计算开销使其恢复时间很长,因而不适用于实时单像素成像。如果可以获得待测场景的一些先验信息,无疑可有效减小重建计算量。文献[32]提出的进化的Hadamard基测量方案从之前的测量结果中获取先验信息,并用快速的线性迭代算法来重建图像。如5.1节所述,单像素成像在每次测量中获得的光强值相当于该次采样中所使用的掩模图案的权重,光强值越大,说明掩模图案对场景越重要。因此可以根据测量得到的光强值的大小来对掩模图案的顺序进行重新排序,利用重要的掩模优先对场景进行采样。文献[32]假设上一帧采样中重要的掩模对下一帧也很重要,在之后的测量中会优先显示。在场景没有大幅变化的情况下,这种通过之前测量来获得场景先验信息的方式是十分有效的。

为了使欠采样单像素成像技术更具普适性,研究者根据一般场景的属性优化Hadamard基掩模的测量顺序,比如“俄罗斯套娃”排序88、“切蛋糕”排序89、“折纸图案”排序90、“总变分”升序排序91-92等,并利用线性迭代快速算法实时重建图像,该方法在低采样率下有优异的表现。但是,空间光调制器的有限调制频率在很大程度上限制了实时单像素成像的发展,比如DMD的最快二值化调制频率是22 kHz。近年来研究者利用光学相控阵器件(OPA)93、发光二极管(LED)阵列94-95的快速开关特性,将空间光调制器的调制频率提高至MHz量级,甚至有望达到GHz量级96。OPA对空间光进行相位调制,可以以光栅扫描的方式向场景快速投影结构光,但由于制作工艺较为复杂,目前只能投影低分辨率的采样图案。Xu等94-95提出了一种高速结构化LED阵列,可以向动态场景高速投影32 pixel×32 pixel的采样图案,并重建帧率为1000 frame·s-1的实时视频。这是利用LED非常快的开关时间(<1 μs)和Hadamard基之间的对称性来实现的。相比于其他单像素成像系统,其采样帧率大致提升了两个数量级。

同时,在实时单像素成像中提高重建图像的质量也很重要。研究者将微扫描技术应用到Hadamard单像素成像中,不需要添加额外的硬件,只需要修改采样方案。首先利用传统单像素成像得到多个低分辨率图像,每个图像横向偏移亚像素步长。然后将这些图像在一个具有更高分辨率的网格上共同配准以重建高分辨率图像。与传统Hadamard单像素成像相比,该方案可以在相同的采样时间下将高分辨率重建图像的信噪比提高50%97-98

此外,还可以使用一些自适应非均匀空间分辨率成像策略40来合理地分配成像资源。文献[40]使用具有非均匀空间分辨率的掩模对场景进行采样,并模仿人眼中央凹的成像方式,对感兴趣的物体进行高分辨率采样,而对背景进行低分辨率采样。该方法与传统单像素成像策略相比,可以在相同采样次数下获得具有更高分辨率的主体细节。同时,高分辨率区域可自适应地跟踪物体运动,并在长时间成像过程中不断采集背景信息,提高总体重建图像的质量。

在传统的重建算法中,测量次数和重建时间之间的制衡关系一直束缚着单像素成像的实时性:线性迭代算法有较小的计算开销,可实现实时重建,但需要较多的测量才可重建出可用的图像;压缩感知算法所需的测量较少,但凸优化重建时间通常远大于采样时间。因此,研究者尝试将深度学习引入到单像素成像技术中以突破这一瓶颈,通过深度神经网络来实现“端到端”的图像重建。

6 基于机器学习的单像素成像解释

近年来,机器学习技术的飞跃式发展为单像素成像打开了一扇全新的大门。机器学习以数据驱动的方式进一步提高单像素成像系统的信息获取能力、成像速度、成像功能和成像质量。机器学习本质上是一种函数插值算法99,其不需精确编程即可使计算机获得自动学习的能力。深度神经网络是机器学习中最常用的架构,通常由多层非线性单元构成100。单像素成像系统可以利用深度神经网络实现欠采样情况下的图像重建与信息提取。

单像素成像系统的图像重建过程可以看作是一个测量值向量S到重建图像I的映射过程F:SI,深度神经网络可以用于建立二者的映射关系。不同于压缩感知等优化算法,深度神经网络通过离线训练建立固定的映射关系,并以一种快速前向传播的计算过程完成重建,此优点使其适用于众多有实时性要求的应用场景。

深度神经网络自动从数据中提取信息,因此数据的质量决定了重建算法的精确性。训练所用的数据集可以通过实验或者仿真方式获得。实验获取方式是直接收集输入数据与实验系统的输出数据,但是数据收集过程复杂,需要耗费大量的时间和精力。仿真的方法可以有效减少数据收集成本,但是需要首先建立可靠的物理模型。在监督学习架构中,需要对所有的数据进行标注。

深度神经网络的结构如图6所示,其由输入层、隐藏层和输出层构成,其中输入层和输出层的形式由映射关系决定。网络的层数J是网络的重要参数,其中隐藏层的层数可调,更多的层数可以更好地实现非线性映射100-102。每一层由多个非线性计算单元组成,每个单元与前后层相连接,每个单元的输入为上一层单元输出的加权和,输出为输入值的激活值,其中权重值是在训练过程中优化的参数。并且激活函数的选择也会影响网络的性能,常使用线性整流函数(ReLU)103sigmoid(·)104、双曲正切函数105

图 6. 深度神经网络的结构图

Fig. 6. Structural diagram of deep neural network

下载图片 查看所有图片

当输入的对象尺寸较大时,上述网络架构难以实现对全连接层大量的参数进行有效训练,因此研究者提出了卷积神经网络(CNN)来减少参数数量并提升特征提取能力,CNN现已获得了广泛的应用106。卷积层通过权值共享大幅减少了参数数量,输入数据通过池化层后得到有效压缩。除此之外,研究人员还提出了随机丢弃层107和残差层108来避免过拟合与梯度消失。重建图像可以通过对所提取特征进行多次反卷积操作来获得。

在确定网络的结构后,需要通过训练来优化网络的权重W以使损失函数(TLF)达到最小,使网络的输出更接近理想输出,TLF被定义为

LoFS,I=mtrainεtrainFS,I

式中:F为神经网络的重建计算过程;S为输入网络的测量值向量;mtrain为训练样本的数量;εtrain为误差度量,一般为最小平方误差(MSE)与平均绝对误差(MAE)。这两种误差函数没有涉及相邻像素的信息,结构相似性误差函数(SSIM)考虑到图像的局部结构,更适用于观测。

由于激活函数的不可微性,网络权重W一般通过迭代进行优化,梯度下降法(GD)是最常用的优化方法,第k次的优化过程可表示为

wk+1=wk+ηLow

式中:w为每个神经元的权重;η为学习率,选择合适的学习率可以加快迭代的收敛并避免训练中的振荡;L/w一般通过链式法则进行反向传播计算。当网络规模比较大且训练数据较多时,数据集可以被随机分割为多个小批量的数据集,通过小数据集的计算更新参数,这种方法可以有效减小计算量并提升迭代速度。优化的过程通常借助成熟的自动化框架实现。

训练结束后网络需要进行验证和测试,网络的输出误差可以表示为

LotestFS,I=mtestεtestFS,I

式中:mtest为测试样本的数量;误差度量εtest表示所训练网络的泛化能力。εtest不一定与训练时的误差度量εtrain相同,但是如果二者相同,当训练的次数变化时,二者的变化规律往往不相同。测试集的误差往往会由于过拟合等原因而变大,因此,需要实时监测训练过程中的误差变化趋势以确定停止训练的时机。

在单像素成像中引入机器学习技术是为了在保障重建图像质量的前提下有效减少采样次数。通过关联计算与压缩感知等预处理得到噪声图像,将其与原图共同输入到深度神经网络中进行端到端训练,可以有效提升重建图像的质量109-111。这种应用场景本质上是一种图像处理过程,与单像素成像系统本身的关联较小。单像素成像系统与机器学习的更深层次的结合可以用于优化单像素成像系统的物理结构。文献[112]利用基于深度学习的单像素成像系统,可以不获取掩模信息,在训练过的网络中只输入单像素探测器的一维测量值序列来完成图像重建。机器学习也被用于在随机掩模图案中寻找效率更高的采样基113-114。神经网络还被设计为自动编码机结构,编码层模拟采样图案与场景的相互作用,解码层根据压缩后的信号实现图像重建。该结构还可以通过对场景进行随机和正弦两种采样图案的叠加照明,同时获得反射率和深度信息115。而在分类任务中,通常不需要对图像进行重建,文献[116]和[117]使用“学习”的结构光照射目标,直接通过光强序列对目标进行识别。需要指出的是,机器学习通过训练获得的数据处理能力是高度依赖于训练集的。基于机器学习的单像素成像系统的宽适性和鲁棒性存在权衡关系,当训练集使用的数据集的针对性较好时,与数据集特征相似的物体的重建效果就较好,但是系统的普适性较差。

7 讨论与展望

众所周知,单像素探测器的诞生要远早于面阵探测器,从光电二极管到电荷耦合元件的研制成功间隔了近百年时间。因此,鬼成像/单像素成像的技术活力首先存在于任何新型探测器出现而其相应的面阵探测器还未研发成功的真空期内。在这期间,单像素成像可以第一时间使用单像素的新型探测器实现相应的二维或者高维成像。此外,融合了信号处理、数学计算的鬼成像/单像素成像技术将更大程度地解放成像能力。一方面,使用适当的重建算法可以获取传统成像系统无法解译的光场信息,如偏振、光谱、相位等物理量,大大提高了光场信息的获取能力与利用率。另一方面,使用高带宽单像素探测器可轻松实现ps量级的时间分辨二维成像,如此高的时间分辨率适用于高精度的光飞行时间测距,可在一组采样过程中同时获得测量场景的深度信息与反射率信息,将有望成为全新的低成本激光雷达测距方案。

此外,鬼成像/单像素成像系统比传统成像系统体积更小,且成像方式和功能更加灵活。鬼成像/单像素成像技术可将难以突破的光学难题转换为信号处理与计算的问题,通过相应的光学调制与数学计算来弥补硬件设备的不足,进而实现高效高质量的成像。鬼成像/单像素成像系统通过合理分配物理域和计算域中的各种资源,联合优化整体成像系统以实现优异的成像性能。鬼成像/单像素成像系统中的物像共轭关系也更加灵活,可以实现许多传统成像系统无法完成的功能,这已经在许多演示成功的技术方案中体现。且鬼成像/单像素成像系统还可针对不同的任务需求对编码采样形式、单像素探测器的性能、重建算法的功能进行灵活调整,可在不改动系统硬件设备的前提下并行完成多个成像任务。

鬼成像/单像素成像技术的另一特点是其测量值并非传统意义上人眼所观察到的二维图像,需要与掩模信息进行关联计算后才可转换为图像。其测量值虽然不再符合人类视觉感官,但更适于机器的读取与传输,在当今人工智能高速发展的时代,可以更加快速、直接地与机器进行交互。在一些应用场景下,鬼成像/单像素成像无需完全重建图像,而只需要恢复场景的某些特征信息。这种快速重建的方式非常适用于检测、分类等应用,将推动无人物流、工业检测、自动驾驶等领域的发展。此外,鬼成像/单像素成像技术还非常适用于远距离传输成像。其稀疏采样的特性可大大降低测量值的信息冗余量,进而可进行高效的远距离传输,并在传输终端重建图像。某些图像处理行为,如特征提取、分类识别、压缩、超分辨等,可通过设计特定的掩模在采样过程中完成,这样可进一步降低传输信道的信息冗余量,节省了图像处理所用的计算资源与时间。

综上所述,鬼成像/单像素成像作为一种典型的计算成像技术,具有十分灵活的成像模式,随着光电技术和信息技术的不断进步,其会向更快速、更高分辨率、多维测量的方向发展,会为光学成像领域注入新的活力。鬼成像/单像素成像不断发展与完善,其结合多种成像方式的优势,可达到传统光学成像系统所不能实现的成像效果,将为生物医学成像、空间遥感、**对抗成像、自动驾驶等领域带来全新的成像方案。

参考文献

[1] 邵晓鹏, 苏云, 刘金鹏, 等. 计算成像内涵与体系(特邀)[J]. 光子学报, 2021, 50(5): 0511001.

    Shao X P, Su Y, Liu J P, et al. Connotation and system of computational imaging(invited)[J]. Acta Photonica Sinica, 2021, 50(5): 0511001.

[2] 邵晓鹏, 刘飞, 李伟, 等. 计算成像技术及应用最新进展[J]. 激光与光电子学进展, 2020, 57(2): 020001.

    Shao X P, Liu F, Li W, et al. Latest progress in computational imaging technology and application[J]. Laser & Optoelectronics Progress, 2020, 57(2): 020001.

[3] 左超, 冯世杰, 张翔宇, 等. 深度学习下的计算成像: 现状、挑战与未来[J]. 光学学报, 2020, 40(1): 0111003.

    Zuo C, Feng S J, Zhang X Y, et al. Deep learning based computational imaging: status, challenges, and future[J]. Acta Optica Sinica, 2020, 40(1): 0111003.

[4] Klyshko D N. A simple method of preparing pure states of an optical field, of implementing the Einstein-Podolsky-Rosen experiment, and of demonstrating the complementarity principle[J]. Soviet Physics Uspekhi, 1988, 31(1): 74-85.

[5] Pittman T B, Shih Y H, Strekalov D V, et al. Optical imaging by means of two-photon quantum entanglement[J]. Physical Review A, 1995, 52(5): R3429-R3432.

[6] Scarcelli G, Berardi V, Shih Y. Can two-photon correlation of chaotic light be considered as correlation of intensity fluctuations?[J]. Physical Review Letters, 2006, 96(6): 063602.

[7] Shih Y. Quantum imaging[J]. IEEE Journal of Selected Topics in Quantum Electronics, 2007, 13(4): 1016-1030.

[8] Bennink R S, Bentley S J, Boyd R W. “two-photon” coincidence imaging with a classical source[J]. Physical Review Letters, 2002, 89(11): 113601.

[9] Gatti A, Brambilla E, Bache M, et al. Correlated imaging, quantum and classical[J]. Physical Review A, 2004, 70: 013802.

[10] Valencia A, Scarcelli G, D'Angelo M, et al. Two-photon imaging with thermal light[J]. Physical Review Letters, 2005, 94(6): 063601.

[11] Zhai Y H, Chen X H, Zhang D, et al. Two-photon interference with true thermal light[J]. Physical Review A, 2005, 72(4): 043805.

[12] Gatti A, Bondani M, Lugiato L A, et al. Comment on “can two-photon correlation of chaotic light be considered as correlation of intensity fluctuations?”[J]. Physical Review Letters, 2007, 98(3): 039301.

[13] ShihY. The physics of ghost imaging[M]//Cohen L, Poor H V, Scully M O. Classical, semi-classical and quantum noise. New York: Springer, 2011: 169-222. 10.1007/978-1-4419-6624-7_14

[14] Shapiro J H, Boyd R W. The physics of ghost imaging[J]. Quantum Information Processing, 2012, 11(4): 949-993.

[15] Shih Y. The physics of ghost imaging: nonlocal interference or local intensity fluctuation correlation?[J]. Quantum Information Processing, 2012, 11(4): 995-1001.

[16] Shapiro J H, Boyd R W. Response to “The physics of ghost imaging: nonlocal interference or local intensity fluctuation correlation?”[J]. Quantum Information Processing, 2012, 11(4): 1003-1011.

[17] Shapiro J H. Computational ghost imaging[J]. Physical Review A, 2008, 78(6): 061802.

[18] Bromberg Y, Katz O, Silberberg Y. Ghost imaging with a single detector[J]. Physical Review A, 2009, 79(5): 053840.

[19] Candes E J, Tao T. Decoding by linear programming[J]. IEEE Transactions on Information Theory, 2005, 51(12): 4203-4215.

[20] Candès E J, Romberg J K, Tao T. Stable signal recovery from incomplete and inaccurate measurements[J]. Communications on Pure and Applied Mathematics, 2006, 59(8): 1207-1223.

[21] CandèsE J. Compressive sampling[C]//Proceedings of the International Congress of Mathematicians Madrid, August 22-30, 2006, Zuerich. Switzerland: European Mathematical Society Publishing House, 2006: 1433-1452. 10.4171/022-3/69

[22] Donoho D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.

[23] Candes E J, Tao T. Near-optimal signal recovery from random projections: universal encoding strategies?[J]. IEEE Transactions on Information Theory, 2006, 52(12): 5406-5425.

[24] Candès E J, Romberg J. Sparsity and incoherence in compressive sampling[J]. Inverse Problems, 2007, 23(3): 969-985.

[25] Duarte M F, Davenport M A, Takhar D, et al. Single-pixel imaging via compressive sampling[J]. IEEE Signal Processing Magazine, 2008, 25(2): 83-91.

[26] Guarnieri, M. The Television: from mechanics to electronics[J]. IEEE Industrial Electronics Magazine, 2010, 4(4): 43-45.

[27] BairdJ L. Apparatus for transmitting views or images to a distance: US1699270[P]. 1929-01-15.

[28] Cheng J, Han S S. Incoherent coincidence imaging and its applicability in X-ray diffraction[J]. Physical Review Letters, 2004, 92(9): 093903.

[29] Greenberg J, Krishnamurthy K, Brady D. Compressive single-pixel snapshot X-ray diffraction imaging[J]. Optics Letters, 2014, 39(1): 111-114.

[30] Zhang A X, He Y H, Wu L A, et al. Tabletop X-ray ghost imaging with ultra-low radiation[J]. Optica, 2018, 5(4): 374-377.

[31] Bondani M, Puddu E, Degiovanni I P, et al. Chaotically seeded parametric downconversion for ghost imaging[J]. Journal of the Optical Society of America B, 2008, 25(7): 1203-1213.

[32] Radwell N, Mitchell K J, Gibson G M, et al. Single-pixel infrared and visible microscope[J]. Optica, 2014, 1(5): 285-289.

[33] Edgar M P, Gibson G M, Bowman R W, et al. Simultaneous real-time visible and infrared video with single-pixel detectors[J]. Scientific Reports, 2015, 5: 10669.

[34] Watts C M, Shrekenhamer D, Montoya J, et al. Terahertz compressive imaging with metamaterial spatial light modulators[J]. Nature Photonics, 2014, 8(8): 605-609.

[35] Stantchev R I, Sun B, Hornett S M, et al. Noninvasive, near-field terahertz imaging of hidden objects using a single-pixel detector[J]. Science Advances, 2016, 2(6): e1600190.

[36] Zhao C Q, Gong W L, Chen M L, et al. Ghost imaging lidar via sparsity constraints[J]. Applied Physics Letters, 2012, 101(14): 141123.

[37] Howland G A, Lum D J, Ware M R, et al. Photon counting compressive depth mapping[J]. Optics Express, 2013, 21(20): 23822-23837.

[38] Sun M J, Edgar M P, Gibson G M, et al. Single-pixel three-dimensional imaging with time-based depth resolution[J]. Nature Communications, 2016, 7: 12010.

[39] Aβmann M, Bayer M. Compressive adaptive computational ghost imaging[J]. Scientific Reports, 2013, 3: 1545.

[40] Phillips D B, Sun M J, Taylor J M, et al. Adaptive foveated single-pixel imaging with dynamic supersampling[J]. Science Advances, 2017, 3(4): e1601782.

[41] Bennink R S, Bentley S J, Boyd R W, et al. Quantum and classical coincidence imaging[J]. Physical Review Letters, 2004, 92(3): 033601.

[42] Zhang D, Zhai Y H, Wu L A, et al. Correlated two-photon imaging with true thermal light[J]. Optics Letters, 2005, 30(18): 2354-2356.

[43] 吴自文, 邱晓东, 陈理想. 关联成像技术研究现状及展望[J]. 激光与光电子学进展, 2020, 57(6): 060001.

    Wu Z W, Qiu X D, Chen L X. Current status and prospect for correlated imaging technique[J]. Laser & Optoelectronics Progress, 2020, 57(6): 060001.

[44] SunB, EdgarM P, BowmanR, et al. Differential computational ghost imaging[C]//Imaging and Applied Optics, June 23-27, 2013, Arlington, Virginia. Washington, D.C.: OSA, 2013: CTu1C.4. 10.1364/cosi.2013.ctu1c.4

[45] Sun M J, Xu Z H, Wu L G. Collective noise model for focal plane modulated single-pixel imaging[J]. Optics and Lasers in Engineering, 2018, 100: 18-22.

[46] McCarthy A, Collins R J, Krichel N J, et al. Long-range time-of-flight scanning sensor based on high-speed time-correlated single-photon counting[J]. Applied Optics, 2009, 48(32): 6241-6251.

[47] Massa J S, Wallace A M, Buller G S, et al. Laser depth measurement based on time-correlated single-photon counting[J]. Optics Letters, 1997, 22(8): 543-545.

[48] McCarthy A, Krichel N J, Gemmell N R, et al. Kilometer-range, high resolution depth imaging via 1560 nm wavelength single-photon detection[J]. Optics Express, 2013, 21(7): 8904-8915.

[49] Nyquist H. Certain topics in telegraph transmission theory[J]. Transactions of the American Institute of Electrical Engineers, 1928, 47(2): 617-644.

[50] Shannon C E. Communication in the presence of noise[J]. Proceedings of the IRE, 1949, 37(1): 10-21.

[51] Ahmed N, Natarajan T, Rao K R. Discrete cosine transform[J]. IEEE Transactions on Computers, 1974, C-23(1): 90-93.

[52] Antonini M, Barlaud M, Mathieu P, et al. Image coding using wavelet transform[J]. IEEE Transactions on Image Processing, 1992, 1(2): 205-220.

[53] Wallace G K. The JPEG still picture compression standard[J]. IEEE Transactions on Consumer Electronics, 1992, 38(1): 4180430.

[54] Skodras A, Christopoulos C, Ebrahimi T. The JPEG 2000 still image compression standard[J]. IEEE Signal Processing Magazine, 2001, 18(5): 36-58.

[55] Sankaranarayanan A C, Xu L N, Studer C, et al. Video compressive sensing for spatial multiplexing cameras using motion-flow models[J]. SIAM Journal on Imaging Sciences, 2015, 8(3): 1489-1518.

[56] Edgar M P, Gibson G M, Padgett M J. Principles and prospects for single-pixel imaging[J]. Nature Photonics, 2019, 13(1): 13-20.

[57] Li C B, Yin W T, Jiang H, et al. An efficient augmented Lagrangian method with applications to total variation minimization[J]. Computational Optimization and Applications, 2013, 56(3): 507-530.

[58] Davenport M A, Wakin M B. Analysis of orthogonal matching pursuit using the restricted isometry property[J]. IEEE Transactions on Information Theory, 2010, 56(9): 4395-4401.

[59] Tropp J A, Gilbert A C. Signal recovery from random measurements via orthogonal matching pursuit[J]. IEEE Transactions on Information Theory, 2007, 53(12): 4655-4666.

[60] Needell D, Vershynin R. Greedy signal recovery and uncertainty principles[J]. Proceedings of SPIE, 2008, 6814: 139-150.

[61] Needell D, Tropp J A. CoSaMP: iterative signal recovery from incomplete and inaccurate samples[J]. Applied and Computational Harmonic Analysis, 2009, 26(3): 301-321.

[62] Chen S S B, Donoho D L, Saunders M A. Atomic decomposition by basis pursuit[J]. SIAM Review, 2001, 43(1): 129-159.

[63] Figueiredo M A T, Nowak R D, Wright S J. Gradient projection for sparse reconstruction: application to compressed sensing and other inverse problems[J]. IEEE Journal of Selected Topics in Signal Processing, 2007, 1(4): 586-597.

[64] Kim S J, Koh K, Lustig M, et al. An interior-point method for large-scale ℓ1-regularized least squares[J]. IEEE Journal of Selected Topics in Signal Processing, 2007, 1(4): 606-617.

[65] Donoho D L, Tsaig Y. Fast solution of ℓ1-norm minimization problems when the solution may be sparse[J]. IEEE Transactions on Information Theory, 2008, 54(11): 4789-4812.

[66] Bioucas-Dias J M, Figueiredo M A T. A new TwIST: two-step iterative shrinkage/thresholding algorithms for image restoration[J]. IEEE Transactions on Image Processing, 2007, 16(12): 2992-3004.

[67] Candes E J, Romberg J, Tao T. Robust uncertainty principles: exact signal reconstruction from highly incomplete frequency information[J]. IEEE Transactions on Information Theory, 2006, 52(2): 489-509.

[68] Bioucas-DiasJ M, FigueiredoM A T. Two-step algorithms for linear inverse problems with non-quadratic regularization[C]//2007 IEEE International Conference on Image Processing, September 16-October 19, 2007, San Antonio, TX, USA. New York: IEEE Press, 2007: I-105-I. 10.1109/icip.2007.4378902

[69] Becker S, Bobin J, Candès E J. NESTA: a fast and accurate first-order method for sparse recovery[J]. SIAM Journal on Imaging Sciences, 2011, 4(1): 1-39.

[70] YuanX. Generalized alternating projection based total variation minimization for compressive sensing[C]//2016 IEEE International Conference on Image Processing (ICIP), September 25-28, 2016, Phoenix, AZ, USA. New York: IEEE Press, 2016: 2539-2543. 10.1109/icip.2016.7532817

[71] Wahlberg B, Boyd S, Annergren M, et al. An ADMM algorithm for a class of total variation regularized estimation problems[J]. IFAC Proceedings Volumes, 2012, 45(16): 83-88.

[72] Candès E J. The restricted isometry property and its implications for compressed sensing[J]. Comptes Rendus Mathematique, 2008, 346(9/10): 589-592.

[73] Baraniuk R, Davenport M, DeVore R, et al. A simple proof of the restricted isometry property for random matrices[J]. Constructive Approximation, 2008, 28(3): 253-263.

[74] Chen X H, Liu Q, Luo K H, et al. Lensless ghost imaging with true thermal light[J]. Optics Letters, 2009, 34(5): 695-697.

[75] Sun M J, Zhang J M. Single-pixel imaging and its application in three-dimensional reconstruction: a brief review[J]. Sensors, 2019, 19(3): 732.

[76] Pastuszczak A, Szczygieł B, Mikołajczyk M, et al. Efficient adaptation of complex-valued noiselet sensing matrices for compressed single-pixel imaging[J]. Applied Optics, 2016, 55(19): 5141-5148.

[77] Czajkowski K M, Czajkowski K M, Pastuszczak A, et al. Single-pixel imaging with Morlet wavelet correlated random patterns[J]. Scientific Reports, 2018, 8(1): 466.

[78] Wang L, Zhao S M. Fast reconstructed and high-quality ghost imaging with fast Walsh-Hadamard transform[J]. Photonics Research, 2016, 4(6): 240-244.

[79] Zhang Z B, Wang X Y, Zheng G, et al. Hadamard single-pixel imaging versus Fourier single-pixel imaging[J]. Optics Express, 2017, 25(16): 19619-19639.

[80] Zhang Z, Ma X, Zhong J. Single-pixel imaging by means of Fourier spectrum acquisition[J]. Nature Communications, 2015, 6: 6225.

[81] Zhang Z B, Liu S J, Peng J Z, et al. Simultaneous spatial, spectral, and 3D compressive imaging via efficient Fourier single-pixel measurements[J]. Optica, 2018, 5(3): 315-319.

[82] Czajkowski K M, Czajkowski K M, Pastuszczak A, et al. Real-time single-pixel video imaging with Fourier domain regularization[J]. Optics Express, 2018, 26(16): 20009-20022.

[83] Zhang Z B, Wang X Y, Zheng G A, et al. Fast Fourier single-pixel imaging via binary illumination[J]. Scientific Reports, 2017, 7(1): 12029.

[84] Yu W K, Li M F, Yao X R, et al. Adaptive compressive ghost imaging based on wavelet trees and sparse representation[J]. Optics Express, 2014, 22(6): 7133-7144.

[85] Rousset F, Ducros N, Farina A, et al. Adaptive basis scan by wavelet prediction for single-pixel imaging[J]. IEEE Transactions on Computational Imaging, 2017, 3(1): 36-46.

[86] 赵海潇, 郭岩, 李珮明, 等. 单像素成像信噪比分析及其在特殊波段的发展[J]. 激光与光电子学进展, 2021, 58(10): 1011010.

    Zhao H X, Guo Y, Li P M, et al. Investigation of single-pixel imaging in signal-to-noise ratio and its development at special wavelength[J]. Laser & Optoelectronics Progress, 2021, 58(10): 1011010.

[87] Yan S M, Sun M J, Chen W, et al. Illumination calibration for computational ghost imaging[J]. Photonics, 2021, 8(2): 59.

[88] Sun M J, Meng L T, Edgar M P, et al. A Russian Dolls ordering of the Hadamard basis for compressive single-pixel imaging[J]. Scientific Reports, 2017, 7(1): 3464.

[89] Yu W K. Super sub-nyquist single-pixel imaging by means of cake-cutting Hadamard basis sort[J]. Sensors, 2019, 19(19): 4122.

[90] Yu W K, Liu Y M. Single-pixel imaging with origami pattern construction[J]. Sensors, 2019, 19(23): 5135.

[91] Yu X, Stantchev R I, Yang F, et al. Super sub-Nyquist single-pixel imaging by total variation ascending ordering of the Hadamard basis[J]. Scientific Reports, 2020, 10(1): 9338.

[92] Yu X, Yang F, Gao B, et al. Deep compressive single pixel imaging by reordering Hadamard basis: a comparative study[J]. IEEE Access, 2020, 8: 55773-55784.

[93] Li L J, Chen W, Zhao X Y, et al. Fast optical phased array calibration technique for random phase modulation LiDAR[J]. IEEE Photonics Journal, 2019, 11(1): 1-10.

[94] Xu Z H, Chen W, Penuelas J, et al. 1000 fps computational ghost imaging using LED-based structured illumination[J]. Optics Express, 2018, 26(3): 2427-2434.

[95] Jiao S M, Sun M J, Gao Y, et al. Motion estimation and quality enhancement for a single image in dynamic single-pixel imaging[J]. Optics Express, 2019, 27(9): 12841-12854.

[96] 刘伟涛, 孙帅, 胡宏康, 等. 运动物体关联成像研究现状及展望[J]. 激光与光电子学进展, 2021, 58(10): 1011001.

    Liu W T, Sun S, Hu H K, et al. Progress and prospect for ghost imaging of moving objects[J]. Laser & Optoelectronics Progress, 2021, 58(10): 1011001.

[97] Sun M J, Edgar M P, Phillips D B, et al. Improving the signal-to-noise ratio of single-pixel imaging using digital microscanning[J]. Optics Express, 2016, 24(10): 10476-10485.

[98] Sun M J, Wang H Y, Huang J Y. Improving the performance of computational ghost imaging by using a quadrant detector and digital micro-scanning[J]. Scientific Reports, 2019, 9: 4105.

[99] Jordan M I, Mitchell T M. Machine learning: trends, perspectives, and prospects[J]. Science, 2015, 349(6245): 255-260.

[100] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.

[101] Schmidhuber J. Deep learning in neural networks: an overview[J]. Neural Networks, 2015, 61: 85-117.

[102] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.

[103] BottouL. Large-scale machine learning with stochastic gradient descent[M]//Lechevallier Y, Saporta G. Proceedings of COMPSTAT’2010. Heidelberg: Physica-Verlag HD, 2010: 177-186. 10.1007/978-3-7908-2604-3_16

[104] NairV, HintonG E. Rectified linear units improve restricted Boltzmann machines[C]//ICML 2010-Proceedings, 27th International Conference on Machine Learning, June 21-24, 2010, Haifa, Israel. Madison: Omnipress, 2010(3): 807-814.

[105] GlorotX, BordesA, BengioY. Deep sparse rectifier neural networks[C]//Proceedings of the fourteenth international conference on artificial intelligence and statistics, April 11-13, Fort Lauderdale, USA. Cambridge: JMLR, 2011: 315-323.

[106] Gibson G M, Johnson S D, Padgett M J. Single-pixel imaging 12 years on: a review[J]. Optics Express, 2020, 28(19): 28190-28208.

[107] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[108] HeK M, ZhangX Y, RenS Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 770-778. 10.1109/cvpr.2016.90

[109] He Y, Wang G, Dong G, et al. Ghost imaging based on deep learning[J]. Scientific Reports, 2018, 8(1): 6469.

[110] Lyu M, Wang W, Wang H, et al. Deep-learning-based ghost imaging[J]. Scientific Reports, 2017, 7(1): 17865.

[111] Shimobaba T, Endo Y, Nishitsuji T, et al. Computational ghost imaging using deep learning[J]. Optics Communications, 2018, 413: 147-151.

[112] Wang F, Wang H, Wang H, et al. Learning from simulation: an end-to-end deep-learning approach for computational ghost imaging[J]. Optics Express, 2019, 27(18): 25560-25572.

[113] Higham C F, Murray-Smith R, Padgett M J, et al. Deep learning for real-time single-pixel video[J]. Scientific Reports, 2018, 8(1): 2369.

[114] Radwell N, Johnson S D, Edgar M P, et al. Deep learning optimized single-pixel LiDAR[J]. Applied Physics Letters, 2019, 115(23): 231101.

[115] Wang H, Bian L, Zhang J. Depth acquisition in single-pixel imaging with multiplexed illumination[J]. Optics Express, 2021, 29(4): 4866-4874.

[116] Zhang Z B, Li X, Zheng S J, et al. Image-free classification of fast-moving objects using “learned” structured illumination and single-pixel detection[J]. Optics Express, 2020, 28(9): 13269.

[117] Jiao S M, Feng J, Gao Y, et al. Optical machine learning with incoherent light and a single-pixel detector[J]. Optics Letters, 2019, 44(21): 5186-5189.

陈子阳, 陈丽, 范伟如, 卢腾飞, 沈少鑫, 蒲继雄. 基于相关全息原理的散射成像技术及其进展[J]. 激光与光电子学进展, 2021, 58(2): 0200001. Chen Ziyang, Chen Li, Fan Weiru, Lu Tengfei, Shen Shaoxin, Pu Jixiong. Progress on Scattering Imaging Technologies Based on Correlation Holography[J]. Laser & Optoelectronics Progress, 2021, 58(2): 0200001.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!