光学学报, 2020, 40 (14): 1411005, 网络出版: 2020-07-23   

基于图像复原的衍射望远镜暗弱目标成像 下载: 1063次

Faint-Object Imaging of Diffractive Telescopes Based on Image Restoration
杨静静 1,2,3,***王帅 1,2,**文良华 1,2,4杨平 1,2杨伟 1,2官春林 1,2许冰 1,2,*
作者单位
1 中国科学院自适应光学重点实验室, 四川 成都 610209
2 中国科学院光电技术研究所, 四川 成都 610209
3 中国科学院大学, 北京 100049
4 宜宾学院物理与电子工程学院, 四川 宜宾 644600
摘要
衍射望远镜受限于衍射效率,其成像质量受到非成像级次衍射光的影响。针对这一问题,提出了一种基于噪声自适应估计的块匹配三维协同滤波图像复原算法。首先通过主成分分析法估计出模糊图像的噪声方差,然后结合已知的点扩展函数,通过所提算法复原出清晰图像。搭建衍射望远镜成像系统并开展实验研究。数值仿真和实验结果表明,所提算法使得复原图像调制度相比退化图像提高了3.58倍,能有效改善复原图像的细节,利于暗弱目标成像。所提算法为衍射望远镜系统对暗弱目标进行高对比度成像提供了一种有效的路径。
Abstract
A diffractive telescope is limited by its diffraction efficiency, and its imaging quality is easily affected by non-imaging order diffracted light. To resolve this problem, this study proposes a block-matching and 3D collaborative filtering image restoration algorithm based on adaptive noise estimation. First, the noise variance of a blurred image is estimated using principal component analysis, which is then combined with the known point-spread function, and the clear image is restored using the proposed algorithm. The proposed algorithm is tested in an imaging system built from diffraction telescopes. Results of numerical simulation and measurement experiment show that the proposed algorithm can improve the modulation degree of restored images by 3.58 times compared to that of raw images and can effectively improve the details of restored images and facilitate the faint-object imaging. Therefore, the proposed algorithm provides an effective way for high-contrast imaging of faint objects using diffraction telescope systems.

1 引言

衍射望远镜为设计大口径、轻量化的望远镜提供了新思路[1]。对其主镜衍射元件进行台阶化加工能引起多级次衍射现象[2],进而降低了成像光能利用率。为校正色差,在衍射望远镜中加入衍射次镜[3],但这使得成像光能利用率进一步下降,非成像衍射级次光干扰增强,成像对比度降低,对噪声敏感。菲涅耳衍射元件可等效于由具有不同焦距的透镜叠加组成的器件,其产生的不同级次光所对应的等效透镜焦距是不同的。非设计级次杂散光到达设计级次光对应的焦平面后无法成像,会发散或者会聚,在成像面上形成干扰,进而导致成像质量退化。这种成像退化可通过点扩展函数表征。基于这一理念,之前的研究将包含多级次衍射现象的点扩展函数代入自适应维纳滤波(Awn)算法中,复原出了衍射望远镜高对比度图像[4]。但是,相机噪声水平与成像系统的能量利用率高低有关。衍射望远镜系统仅有设计级次光,系统成像的能量利用率比传统系统的低,而输出图像的噪声水平高。Awn算法没有对图像细节和噪声这两种高频信息进行区别处理,抗噪性差,导致对暗弱目标图像无法复原出高对比度清晰图像。

依据图像先验模型的不同,图像去噪算法主要分为局部平滑、非局部自相似、稀疏表示三类。经典的总变分正则化模型[5-6]利用图像局部平滑特性,在保持边缘和复原平坦区域方面表现出良好的性能,但是其通常会使图像的精细纹理部分变得平滑,从而损失了图像细节。非局部均值模型利用图像的非局部自相似性可以有效地去除噪声并保留自然图像的纹理和细节。近年来,基于稀疏性的正则化方案[7]作为替代方案在各种图像复原问题上有良好的结果。块匹配三维协同滤波(BM3D)算法将非局部自相似思想和小波域稀疏表示结合,是目前去噪能力最好的算法之一[8-10]。该算法假设噪声水平是已知的,但是在实际光学成像系统成像时,输出图像的噪声水平随光源强度变化而变化,例如自然光强随四季、天气等的变化而不同,噪声水平也不同。一般的图像复原算法(包括BM3D算法)无法在实际系统中直接使用。

为此,本文提出了一种基于主成分分析(PCA)的噪声自适应估计BM3D图像复原(ABM3D)算法。通过主成分分析法,自适应地对图像噪声进行估计;然后通过Tikhonov正则化去卷积算法提高图像对比度,采用BM3D算法降低图像噪声影响。最终衍射望远镜系统实现了暗弱目标的高对比度成像。在不同噪声水平下,仿真对比ABM3D算法与Awn算法的图像复原能力,并通过两种不同光照条件下的衍射望远镜系统成像实验,验证了ABM3D算法能够有效地提高衍射成像系统的图像复原质量。ABM3D算法是一种通用的白噪声抑制算法,在所有对高斯白噪声敏感的线性移不变光学成像系统中均适用。

2 衍射成像系统中噪声影响分析

假设衍射成像系统是线性移不变的,则相应的成像退化模型可以表示为

g(x,y)=h(x,y)o(x,y)+n(x,y),(1)

式中:(x,y)为像平面空间坐标;g(x,y)和o(x,y)分别为退化图像和原始清晰图像;h(x,y)为退化函数;􀱋为卷积算符;n(x,y)为加性噪声。对于非相干光学成像系统,h(x,y)表示点扩展函数(PSF)。则衍射成像系统的PSF计算公式[4]

h(x,y)=F{Pd(x0,y0)}u=xλf,v=yλf2,(2)

式中:(x0,y0)为光瞳平面空间坐标;F{·}为傅里叶变换操作;(u,v)为像平面频域空间坐标;λ为波长;f为成像系统的等效焦距。衍射成像系统的广义光瞳函数[4]表示为

Pd(x0,y0)=circ(x02+y02/a)×n=-Cnexpi2πτ(n+1)(x02+y02),(3)Cn=sin(nπ/N)nπ×sin[π(n+1)]sin[π(n+1)/N],(4)

式中:a为衍射系统口径的半径;周期τ=2λf;N为衍射透镜的台阶数;circ(·)为圆形孔径函数;Cn为衍射元件第n级衍射光的系数,Cn的平方为对应级次的衍射效率。一般而言,衍射效率是指用于成像的-1级光的衍射效率。这表明衍射成像系统除了存在因传统成像系统中折射、反射及光光吸收等引起的能量损失外,还存在非设计级次衍射形成的杂散光能量。

在图像传感器中,电荷耦合器件(CCD)具有动态范围大、尺寸小、量子转换效率高、工作可靠等优点,被认为是可见光成像、空间光学、微光夜视等领域最有前途的探测器件之一[11],选用CCD作为成像器件。当照明强度恒定、均匀时,噪声主要包括暗电流散粒噪声、读出噪声及光子散粒噪声。前两种噪声可分别通过致冷和相机电路设计方式抑制。光子散粒噪声分布近似满足高斯分布,通常又被称为高斯白噪声,它是CCD相机所固有的噪声,不能被后续电路抑制或抵消。因此,在图像复原过程中,主要抑制白噪声对衍射系统成像的影响。

太阳折、反射光经衍射望远镜系统后,自然界的目标图像最终被图像传感器接收。目标信号的强弱取决于光强大小、成像系统的能量利用率、图像传感器的转换效率等。在相同的光源强度下,衍射成像系统得到的图像的噪声水平高,图像细节清晰度差。信号与噪声的相对值能更好地反映目标能量。为了定量评估噪声水平,对不同光照水平下的输出图像进行归一化,然后采用图像噪声的归一化标准差σ描述图像的噪声水平。σ值越大,噪声影响越明显,图像质量越差。将σ≥0.03的目标图像定义为暗弱目标。

3 自适应去噪BM3D算法

根据衍射成像系统的退化模型,高对比度清晰图像的表达式为

O(u,v)=G(u,v)T(u,v)+N(u,v)T(u,v),(5)

式中: O(u,v)为频域内清晰图像估计;T(u,v)为转换函数;G(u,v)和N(u,v)分别为退化图像和噪声的频域表示。高斯白噪声N(u,v)可以表示为MNσ2,MN为图像的总像素数。由(5)式可知,要得到高对比度清晰图像估计,需要噪声估计、去卷积及去有色噪声三步骤。依据衍射成像系统的特点,提出了ABM3D算法。该算法的具体流程与经典BM3D算法[12]类似,如图1所示,其中RI为正则化逆,RWI为正则化维纳逆。

图 1. ABM3D算法流程图

Fig. 1. Flow chart of ABM3D algorithm

下载图片 查看所有图片

目前许多基于高斯噪声模型的图像噪声标准差估计算法的准确性取决于图像平坦区域的丰富度[13-14]。无论图像是否具有丰富的纹理,PCA噪声估计法都可以对噪声进行良好的估计[15-16],是一种有效的统计方法。通过滑动将图像分成s个图像块,每个块包含r个元素,则这些图像块的协方差矩阵表示为

Xs=m=1s(xm-μ)(xm-μ)T,μ=1sm=1sxm,(6)

式中:m为图像块个数变量;μ为图像块灰度值的均值;xm为第m个图像块的灰度值。将该矩阵的特征值降序排列为λ1,λ2,…,λr。低维子空间描述了自然图像的信号信息。冗余维度包含噪声信息,其特征值服从高斯分布。当冗余维度中的特征值均值等于中值时,该特征值均值即为该图像噪声的方差。通过迭代计算,选择协方差矩阵的r-j+1个最小特征值,以满足

η=1r-j+1i=jrλi=median(λi)i=jr,(7)

此时σ= η,其中,i为冗余维度中特征值降序排列变量,j为冗余维度数。

通过正则化逆去卷积算法计算初级去卷积图像,表达式为

F1(u,v)=T1(u,v)G(u,v)=H(u,v)*H(u,v)2+γ1MNσ2G(u,v),(8)

式中:转换函数T1(u,v)由标准Tikhonov正则化模型计算得出;H(u,v)为光学传递函数,是PSF的频域表达;γ1为对应的正则化系数。根据T1(u,v)和σ,得到初级去卷积后的有色噪声标准差σ1。通过BM3D去噪算法,首先对噪声图 F1进行块匹配,将图像 F1滑动分块组成块集合,从噪声图中找出相应的相似块并组成三维(3D)矩阵;然后逐块估计,通过3D变换后,在变换域内通过硬阈值去噪算法对3D矩阵进行3D逆变换;最后聚合得到初级估计图像 OorOor中任意块的最终取值为3D矩阵的加权平均,加权项中的阈值为3D矩阵中非零值与对应噪声乘积总和的倒数。

终极估计图像的流程与初级估计图像基本相似。正则化维纳逆算法去卷积,BM3D算法去噪。不同之处在于,去卷积算法中的转换函数是由标准a-la-Tikhonov正则化模型得出的,表达式为

T2(u,v)=H(u,v)*Oor(u,v)2H(u,v)Oor(u,v)2+γ2MNσ2,(9)

式中:γ2为对应的正则化系数。

4 算法验证

4.1 仿真验证

为了验证所提算法的有效性,首先仿真分析不同噪声水平下两种算法的复原效果。由原始图像与PSF的卷积加不同水平的高斯白噪声得到仿真过程的退化图像。仿真图选用美国空军(USAF)制定的USAF1951分辨率板[17],如图2(a)所示。基于实验室的条件,设计的衍射望远镜的口径为27 mm,焦距为640 mm,波长为630 nm。衍射主镜为四台阶衍射元件,衍射校正次镜为两台阶衍射元件。由于实际衍射望远镜系统比较复杂,无论用Zemax或者Matlab仿真具有衍射现象的衍射望远镜系统都比较困难。为了简化仿真过程,将实际衍射成像系统等效为一个台阶数为2的衍射透镜,并基于奈奎斯特采样定律进行仿真得到PSF。对于圆域内成像光学系统,可以通过调制传递函数(MTF)描述成像系统的退化性能。MTF反映了光学成像系统传输信息的频率特性,能全面客观地评估光学系统的成像质量。系统MTF取PSF傅里叶变换的绝对值。将衍射成像系统的广义光瞳函数转换成传统光学系统的广义光瞳函数,并重新计算,得到传统透镜的MTF并将其作为参考值,如图2(b)所示。用高斯白噪声模拟实验噪声;用噪声标准差表征噪声的水平,噪声标准差值越大,表明光源能量越低;用峰值信噪比(PSNR)和结构相似度(SSIM)表征图像质量水平[18-19]。PSNR是原图像与处理图像之间的方均误差相对于信号最大值平方的对数值。SSIM是一种基于图像结构类似性的图像评价方法,结合了图像亮度、对比度及结构信息。

图 2. 分辨率板和仿真MTF曲线。(a)原始图;(b)仿真MTF曲线

Fig. 2. Resolution board and simulated MTF curve. (a) Original image; (b) simulated MTF curve

下载图片 查看所有图片

为了直观地观察两种图像复原算法的复原效果,图3分别给出了σ为0.02和0.04时的退化图、Awn复原图及ABM3D复原图。结果表明:在σ为0.02的低噪声水平下,Awn算法对低频区域进行复原的效果和ABM3D算法相当,在高频信息区域的复原效果略差;在σ为0.04的高噪声水平下,Awn算法对图像的复原效果尤其是高频信息区域明显不如ABM3D算法;而ABM3D算法在两种噪声水平下都展现出了良好的图像复原能力,仅在对高噪声水平下图像高频信息区域进行复原时的效果略微降低,这说明无论是去噪还是提升图像清晰度,ABM3D算法都具有绝对优势。

图 3. 分辨率板仿真图像复原结果比较。(a)退化图; (b) Awn复原图; (c) ABM3D复原图

Fig. 3. Comparison of simulation restoration results of resolution boards. (a) Raw images; (b) restored images by Awn algorithm; (c) restored images by ABM3D algorithm

下载图片 查看所有图片

为了验证算法的鲁棒性,图4给出了不同噪声下图像对应的退化图像和两种算法复原图像的PSNR和SSIM曲线。相同噪声水平下,两种评价指标曲线表现出相似的变化趋势;随着噪声的不断增大,退化图和复原图的PSNR值和SSIM值都不断下降,表示对应图像受噪声影响严重,图像质量变差;通过Awn算法复原出的图像在噪声水平较低时,复原效果较好,当噪声水平达到一定程度时,PSNR值和SSIM值甚至不如退化图像,这表明Awn算法在低噪声水平下的图像复原能力与ABM3D算法差别不大,但随着噪声水平的增大,Awn算法的去噪能力和图像清晰度复原都不理想,这是在实际应用中不希望出现的;在相同的噪声水平下,经过ABM3D算法复原的图像的PSNR值和SSIM值均大于退化图像,这表明ABM3D算法在较大的噪声水平范围内不仅能很好地抑制噪声,在图像清晰度复原方面也十分具有优势,而且随着噪声污染加重,ABM3D复原图像的PSNR值和SSIM值下降较为缓慢。可见ABM3D鲁棒性较好。定量分析结果与视觉观察效果一致。由于Awn算法简单、运算速度快,在低噪声水平也就是对清晰度要求低时,应优先选用Awn算法对图像进行复原。在噪声水平不确定且噪声比较大的情况下,应优先选择ABM3D算法。衍射望远镜系统的光能利用率较低,成像时受噪声影响比较大,应优先选用ABM3D算法对图像进行复原。

图 4. 不同噪声水平下图像复原前后的参数结果。(a) PSNR; (b) SSIM

Fig. 4. Parameter results for images with and without restoration under different noise levels. (a) PSNR; (b) SSIM

下载图片 查看所有图片

4.2 实验验证

系统实验装置和相应的光路如图5所示。在实际应用中,望远镜需要对无限远处目标成像,但是在有限的实验空间内很难获得目标。根据光学原理可知,从焦点发出的光是平行光,因此,将物体放在焦距为1000 mm,直径为100 mm的准直仪的焦点上模拟无限远处的目标。采用中国标准测试板评估衍射望远镜系统扩展目标的成像质量。由于主波长为550 nm的光源难以获取,采用主波长为630 nm的LED灯为光源,并且将磨砂玻璃放在光源的前面,以产生均匀亮度的光。系统的输出图像由有效像素数为1236×1628,像素尺寸为4.4 μm的CCD相机采集。实验中相机曝光时间为6 ms,不需要制冷。利用玻罗板测量得到衍射望远镜系统的焦距为650.8 mm。在实验过程中原始图像无法获取,通过调制度[20]来定量评价图像对比度,表达式为

M=Imax-IminImax+Imin,(10)

式中:ImaxImin分别为某对黑白条状棒光强灰度值的最大值和最小值。一般通过光学系统输出的像的对比度比输入像的对比度要差,对比度的变化量与空间频率特性有密切的关系。调制度表示物的对比情况,输出像与输入像的调制度之比为对应频率处MTF值。为了排除噪声的影响,在一组中选取多对条状棒的调制度并取平均值。

图 5. 衍射望远镜成像系统的实验装置和对应的光路示意图

Fig. 5. Experimental setup and light path diagram of diffractive telescope imaging system

下载图片 查看所有图片

在目标位置放置针孔,测量衍射成像系统的MTF,结果如图6所示。为了排除噪声的影响,在强光条件下根据多幅图像光强归一化灰度值的均值计算出MTF测量值。需要注意的是,仿真采用的MTF是在将衍射系统近似成单个衍射透镜下计算得到的。实际系统远比仿真结构复杂,所以仿真结果只能定性反映实际系统的成像特性。该衍射系统设计的极限分辨率为65.8 lp/mm,实测的极限分辨率为56.8 lp/mm,系统的成像能力达到近衍射极限。但是,由于多级次衍射的影响,成像对比度尤其在低频部分降低,需要对图像进行复原,以提高衍射系统的成像质量。

图 6. 衍射望远镜成像系统的MTFs

Fig. 6. MTFs of diffractive telescope imaging system

下载图片 查看所有图片

在目标位置处采用是否添加衰减片的方式来模拟不同光源强度。为了更好地量化不同光照强度,对获取的图像进行归一化处理后,通过PCA噪声估计法得出噪声标准差。归一化噪声方差值越大,表示光源强度越弱。将不同光照下的归一化图像与测量得到的MTF结合,计算出两种算法下的复原图像。图7为噪声水平σ值分别为0.02和0.04时国标分辨率板3号16组图像复原前后的对比图。该组为图像复原前后四个方向肉眼均可识别的最小条纹组。系统放大倍数为0.65,通过查表计算可知,衍射成像系统扩展目标的实测极限分辨率为45.7l p/mm。对图像进行复原时,衍射成像系统的极限分辨率得到降低,但是图像的整体视觉观察质量得到了提高。比较图7第一行可知,在低噪声水平下,两种复原算法都能更清晰地复原条纹。从图7第二行可知,两种算法复原的图像都存在明显的毛刺,这是由随机分布的图像噪声引起的。Awn算法不仅不能很好地去除毛刺,反而使得图像对比度下降,该算法在高噪声水平下失效。在两种噪声水平下,ABM3D算法都能使图像表现出更加清晰的条纹而且图像变得光滑。实验进一步验证了ABM3D算法良好的图像复原能力和鲁棒性。

图 7. 分辨率板实验图像复原结果比较。(a)输出图; (b) Awn复原图; (c) ABM3D 复原图

Fig. 7. Comparison of experimental restoration results of resolution boards. (a) Output images; (b) restored images by Awn algorithm; (c) restored images by ABM3D algorithm

下载图片 查看所有图片

为了更清晰地评价复原效果,图8给出了图7中水平直线位置处的像素追迹图。退化图像的像素追迹曲线波动不明显,调制度分别为0.14和0.28,这表明退化图像的对比度不高,影响视觉观察。对于Awn算法复原的图像,低噪声水平下,条形追迹线的峰谷之间有很大的差异,调制度值为0.67,相比直接输出的退化图像,调制度提高了4.79倍;而在高噪声水平下,像素追迹曲线波动不明显,调制度值仅为0.16。这表明Awn算法的鲁棒性差,抗噪能力弱。对于ABM3D算法复原的图像,在两个系统中条形追迹线的峰谷之间都有很大的差异,调制度值近似为1,相比退化图像,图像调制度分别提高了7.14倍和3.58倍。这表明该算法能降低图像模糊度,明显提高图像的对比度。

图 8. 像素追迹图。(a) σ=0.02; (b) σ=0.04

Fig. 8. Pixel traces. (a) σ=0.02; (b) σ=0.04

下载图片 查看所有图片

从仿真和实验上验证了ABM3D算法在衍射空间望远镜成像中的优势。值得注意的是,该算法是针对噪声满足高斯随机分布的图像提出的,并没有对衍射望远镜的特点进行特殊的改进,即该算法在满足线性移不变条件的其他光学成像系统中也是有效的。

5 结论

针对衍射成像系统图像噪声水平高、细节清晰度差的问题,提出了ABM3D图像复原算法。在不同的噪声水平下,利用实际衍射望远镜系统样机对ABM3D算法的复原效果进行了仿真和实验验证。从定量评价和视觉观察两个角度验证ABM3D算法的有效性和鲁棒性,图像对比度得到了进一步提高。ABM3D算法复原前后,图像调制度值至少提高了3.58倍。该研究为衍射望远镜系统对暗弱目标进行高对比成像提供了一种新的技术路线。

参考文献

[1] Atcheson P, Domber J, Whiteaker K, et al. MOIRE: ground demonstration of a large aperture diffractive transmissive telescope[J]. Proceedings of SPIE, 2014, 9143: 91431W.

[2] O'Shea DC, Suleski T J, Kathman A D, et al. Diffractive optics: design, fabrication, and test[M]. Washington: SPIE, 2003: 57- 75.

[3] Hyde R, Dixit S, Weisberg A, et al. Eyeglass: a very large aperture diffractive space telescope[J]. Proceedings of SPIE, 2002, 4849: 28-39.

[4] Yang J J, Wang S, Wen L H, et al. Experimental study on imaging and image deconvolution of a diffractive telescope system[J]. Applied Optics, 2019, 58(33): 9059-9068.

[5] Wang S, Liu Z W, Dong W S, et al. Total variation based image deblurring with nonlocal self-similarity constraint[J]. Electronics Letters, 2011, 47(16): 916-918.

[6] 乔凯, 智喜洋, 江世凯, 等. 空间大口径衍射成像系统的图像反演恢复与增强[J]. 光学精密工程, 2019, 27(7): 1465-1472.

    Qiao K, Zhi X Y, Jiang S K, et al. Image inversion and quality enhancement for space large aperture diffractive imaging system[J]. Optics and Precision Engineering, 2019, 27(7): 1465-1472.

[7] Dong W S, Zhang L, Shi G M, et al. Nonlocally centralized sparse representation for image restoration[J]. IEEE Transactions on Image Processing, 2013, 22(4): 1620-1630.

[8] Javaran T A, Hassanpour H, Abolghasemi V. Non-blind image deconvolution using a regularization based on re-blurring process[J]. Computer Vision and Image Understanding, 2017, 154: 16-34.

[9] PlotzT, RothS. Benchmarking denoising algorithms with real photographs[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI. New York: IEEE, 2017: 2750- 2759.

[10] SonH, LeeS. Fast non-blind deconvolution via regularized residual networks with long/short skip-connections[C]∥2017 IEEE International Conference on Computational Photography (ICCP), May 12-14, 2017, Stanford, CA, USA. New York: IEEE, 2017.

[11] HausJ. Optical sensors: basics and applications[M]. Weinheim: Wiley-VCH, 2010: 33- 37.

[12] Dabov K, Foi A, Katkovnik V, et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080-2095.

[13] Immerkær J. Fast noise variance estimation[J]. Computer Vision and Image Understanding, 1996, 64(2): 300-302.

[14] Meer P, Jolion J M, Rosenfeld A. A fast parallel algorithm for blind estimation of noise variance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(2): 216-223.

[15] Chen GY, Zhu FY, Heng PA. An efficient statistical method for image noise level estimation[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 477- 485.

[16] Pyatykh S, Hesser J, Zheng L. Image noise level estimation by principal component analysis[J]. IEEE Transactions on Image Processing, 2013, 22(2): 687-699.

[17] British StandardsInstitution. Photography: electronic still picture imaging: resolution and spatial frequency responses: BS ISO 12233: 2017[S]. Switzerland: BSI Standards, 2017.

[18] Xia YT, Chen ZZ. Quality assessment for remote sensing images: approaches and applications[C]∥2015 IEEE International Conference on Systems, Man, and Cybernetics, October 9-12, 2015, Kowloon Tong, Hong Kong, China. New York: IEEE, 2015: 1029- 1034.

[19] Wang Z, Bovik A C. A universal image quality index[J]. IEEE Signal Processing Letters, 2002, 9(3): 81-84.

[20] Young SS, Driggers RG, Jacobs EL. Signal processing and performance analysis for imaging systems[M]. London: Artech House, 2008: 41- 61.

杨静静, 王帅, 文良华, 杨平, 杨伟, 官春林, 许冰. 基于图像复原的衍射望远镜暗弱目标成像[J]. 光学学报, 2020, 40(14): 1411005. Jingjing Yang, Shuai Wang, Lianghua Wen, Ping Yang, Wei Yang, Chunlin Guan, Bing Xu. Faint-Object Imaging of Diffractive Telescopes Based on Image Restoration[J]. Acta Optica Sinica, 2020, 40(14): 1411005.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!