光学学报, 2020, 40 (13): 1311002, 网络出版: 2020-07-09   

用于高轨卫星精密稳像的拖尾星斑复原 下载: 625次

Restoration of Smearing Stars in Fine Image Stabilization of High-Orbit Satellites
王奇 1,2,3傅雨田 1,2,*
作者单位
1 中国科学院红外探测与成像技术重点实验室, 上海 200083
2 中国科学院上海技术物理研究所, 上海 200083
3 中国科学院大学, 北京 100049
摘要
为了提高复杂动态环境下精密稳像系统的质心定位精度,提出了一种基于生成对抗网络(GAN)的方法,以解决载体运动引起的星斑拖尾问题。传统的高斯模型先验方法对噪声敏感,盲反卷积方法采用简化模型估计模糊核,与真实值误差较大。所提方法结合了运动流图的运动方向和GAN的优化细节,将运动流图与模拟星点作为监督信号,采用端到端的形式复原星斑图,无需先验信息与迭代计算,并且可以抑制噪声。实验结果表明,相较于R-L方法,所提方法复原星斑后峰值信噪比提升了30.5%,质心定位精度提高了33.4%。
Abstract
To improve the centroid localization accuracy of fine image stabilization systems in complex dynamic environments, this study proposes a method based on generative adversarial network (GAN) to solve the problem of star smearing caused by the satellite's carrier motion. The conventional Gaussian model method with prior information is sensitive to noise, and the blind deconvolution method estimates the blur kernel using a simplified model, leading to a large error compared with the real one. The proposed method combines motion direction of motion flow graphs and optimized details of GAN. The motion flow graphs and simulated star points are used as monitoring signals. The proposed method uses an end-to-end manner to restore star images without prior information and iterative calculations, and noise is suppressed. Experimental results show that the peak signal-to-noise ratio of star recovery and centroid localization accuracy are improved by 30.5% and 33.4%, respectively, compared with the R-L method.

1 引言

空间天文望远镜使用精密稳像系统来保持视轴稳定,星斑质心定位精度决定了载体的姿态解算精度[1]。在载体的动态环境下,星敏感器获取的星斑图将发生退化,形成拖尾,影响质心定位的精度,严重时会导致姿态解算错误[2]。因此,采用拖尾星斑复原方法提高质心算法精度有着非常重要的研究价值。

传统的星斑复原方法大多以点传递函数(PSF)为先验,建立凸优化模型,使用梯度下降等方法获取了较好的复原效果。姜亮等[3]对PSF模型进行误差补偿,受传感器的限制和采样频率的影响,复原结果对噪声敏感。Yan等[2]使用高斯模型对退化星斑进行建模,并对入射通量、曝光时间、角速度及高斯半径4个关键参数进行优化。Sun等[4]使用线段分布函数针对长曝光条件下不同速率的拖尾星点推导了PSF表达式,通过预测拖尾长度来复原星斑图像。王海涌等[5]建立并求解了以高斯扩散半径和像点质心坐标偏差为变量的方程组。这些方法都建立了空域不变的模糊核函数,然而在很多场景如大视场观测条件下,因视场空间变化,很难对PSF建模,而且优化算法时计算量很大。

基于深度学习的图像复原方法在动态场景图像的去模糊问题上取得了很好的结果,表现出强大的拟合能力。Sun等[6]使用卷积神经网络(CNN)预测模糊图像块的概率分布,有效地估计并去除了单幅图像的不均匀模糊。Flamary[7]利用深度学习的方法研究天文图像模糊复原问题,将哈勃空间望远镜实际观测的图像与生成的艾里斑卷积得到模拟的模糊图像,并将其作为监督信号,用CNN训练出一个反卷积核对图像进行复原,该方法无需图像后处理,得到了较好的复原效果。但是该方法仍然基于PSF先验来估计模糊核参数,忽略了运动方向,不能处理复杂环境下的星斑退化,泛化能力差。相比这些深度学习模型,生成对抗网络(GAN)没有复杂的损失函数设计,它的鉴别器与生成器可以非常好地学习到训练样本的分布,无需对参数建模,可以产生更加清晰、真实的星点。

本文提出通过一种端到端的生成对抗网络对动态环境下拖尾星斑进行复原的方法。使用非均匀多样化模糊模型模拟出5000个清晰-模糊图像对(包含运动方向流图),将其作为训练样本,设计一个融合了运动方向估计与模糊估计的对抗生成网络,该网络有效估计并去除了方向不一致的星斑运动模糊。所提方法无需复杂的参数,无需输入先验信息,无需任何图像后处理,提升了峰值信噪比(PSNR)和质心提取的精度。

2 拖尾星斑运动模糊模型

2.1 模糊核与运动流图

在复杂动态环境下,高轨卫星所处平台会发生三维平移与三维旋转运动,星敏感器在成像过程中对姿态的变化十分敏感,载体的扰动会使星斑产生运动拖尾模糊。星斑拖尾过程可以看作是清晰星斑与拖尾算子的卷积,包含噪声的数学模型可以表示为

g(x,y)=f(x,y)k(x,y)+n(x,y),(1)

式中:(x,y)为二维图像的坐标;f(x,y)为清晰星斑;k(x,y)为非均匀运动模糊核映射;n(x,y)为加性噪声;g(x,y)为拖尾模糊星斑。k(x,y)作用在像素点(x,y)周围的图片区域,此时像素点坐标记为(x',y'),则(x,y)像素值的计算公式为

g(x,y)=x',y'k(x,y)(x',y')f(x+x',y+y')+n(x,y)(2)

从模糊星斑g(x,y)复原出清晰星斑,关键是估计出模糊核,并通过反卷积操作求解凸优化问题。采用非均匀局部模糊核,模糊核函数与像素的位置和运动有关,可使用线性运动模型计算每个像素的运动。令p=(x,y)表示像素点,在曝光期间像素点p的运动表示为二维运动矢量Mp=(up,vp),其中upvp分别代表水平和垂直运动,则以p为中心的像素点(x',y')的模糊核表示为

kp(x',y')=0,        (x',y')2Mp2/21Mp2δ(vpx'-upy'),(x',y')2<Mp2/2,(3)

式中:δ(·)为狄拉克函数;‖·‖2为2范数。因此,只要对每个像素点估计出运动矢量Mp,然后由(3)式计算出模糊核k,最后在(1)式的数学模型基础上对模糊图像进行盲反卷积操作,便可获取清晰图像。此方法的关键在于估计所有像素点的运动矢量M,这被称作运动流图。

2.2 拖尾星斑运动模糊生成方法

以往的模糊星斑模型如Yan等[2]、Sun等[4]提出的模型,都建立在理想的PSF高斯表达式的基础上,模糊核具有一致性。而在复杂的动态环境下,星敏感器的运动可能包含多种不同成分,因此,采取的运动模糊方法为非均匀局部运动模糊,该方法具有多样性,可以很好地反映复杂的成像环境。

本文仅模拟相机运动引起的运动模糊,忽略星点运动的影响。采用三维(3D)空间直角坐标系,坐标原点为相机光学中心,xy平面为探测器焦平面,z轴垂直于xy平面。相机的三维旋转与平移在探测器焦平面上体现为成像的二维平移。由于相机绕x轴或者y轴的旋转与三维平移产生的像素位移可能相同,为了避免模糊运动方向估计的混淆,仅模拟三维平移和z轴的旋转。运动矢量M由四个部分组成:

M=MTx+MTy+MTz+MRz,(4)

式中:MTxMTyMTz分别为沿xyz轴的平移运动矢量;MRz为沿z轴的旋转运动矢量。沿x轴和y轴的运动矢量的计算方式相同。以x轴为例,首先采样一个中心像素点pTx=(iTx,jTx),假定一个基准运动量tTx与加速度系数rTx,则 MTx=(UTx,VTx)可以计算为

UTx(i,j)=(i-iTx)rTx+tTxVTx(i,j)=0,(5)

式中:(i,j)为像素点坐标;UTx为运动矢量的水平分量;VTx为运动矢量的垂直分量。

沿z轴的平移会使星斑径向运动模糊逐渐消失。MTx可以计算为

UTz(i,j)=tTzd(i,j)ζ(i-iTz)VTz(i,j)=tTzd(i,j)ζ(j-jTz)d(i,j)=(i,j)-pTz2,(6)

式中:d(i,j)为像素点(i,j)与消失点的距离;pTz为采样到的消失点;ζtTz用来控制径向图案,反映运动速度。

z轴旋转的运动,探测器成像为旋转运动图像,采样一个中心点pRz,角速度为ω,以顺时针方向为正方向。令 d(i,j)=(i,j)-pRz2,每个像素点的运动量为 s(i,j)=2d(i,j)tan(ω/2),θ(i,j)=arctan(i-iRz)/(j-jRz)[-π,π],则绕z轴旋转的运动向量MRz

URz(i,j)=s(i,j)cos[θ(i,j)-π/2]VRz(i,j)=s(i,j)sin[θ(i,j)-π/2](7)

星点拖尾运动模糊模拟的效果如图1所示。图1(a)为建立的相机三维坐标模型和相机沿x轴、y轴、z轴的平移和绕z轴旋转这四种运动的坐标模型,图1(a)第1幅图中的点阵经过四种运动后形成了图1(a)第2幅图到第5幅图的运动结果(由背景虚线表示)。图1(b)为原始的星点图像和不同运动成分的星点模糊图像,其中方框展示圆圈中两个星点放大的细节。从星点细节图中可以看出,两个星点距离较近,图1(b)第2幅图中运动之后的星点产生了交叉,在四种运动中,星点拖尾现象较为严重,图1(b)第2、3、5幅图中已经无法分辨出星点的形状,相机沿x轴、y轴的平移和沿z轴的旋转对星点成像质量的影响非常大。

图 1. 星点拖尾运动模糊模拟示意图。(a)三维坐标系下的运动模型;(b)星点拖尾运动结果

Fig. 1. Simulated diagram of star smearing motion blur. (a) Motion models in 3D coordinate system; (b) results of star smearing motion

下载图片 查看所有图片

3 星斑复原对抗生成网络

近年来,随着深度学习理论的不断发展和完善, 涌现出许多基于神经网络的新框架, 其中生成对抗网络可实现无需对训练样本标记的无监督学习, 已广泛应用于图片生成、补全、风格转换等领域[8]。利用对抗生成网络对复杂动态环境下星点拖尾运动模糊问题进行研究,该方式的主要创新点为:所提方法在生成训练数据的同时获取模糊图像的运动流图,提供神经网络处理星点复原问题的理论解释,提升了复原准确性;生成器采用类似全卷积神经网络(FCN)的架构,可以精确估计模糊星点到星点运动流图的映射;基于了混合损失函数,该函数包含了图像内容损失(content loss)、对抗损失(GAN loss)、运动流图损失(flow loss),在多个角度下提升了复原准确性;将Wu等[9]提出的Wasserstein散度作为训练目标,使用此方法的网络被称为WGAN-div,与最先进的去模糊方法——Wasserstein梯度惩罚生成对抗网络(WGAN-gp)相比,WGAN-div无需繁杂的Lipschitz约束、权重裁剪和梯度惩罚,同时保持了Wasserstein距离的优良特性。

设计的星点复原的流程如图2所示。首先通过生成器对输入的拖尾星点图进行运动流图估计,然后使用非盲卷积对运动流图(转换为模糊核)和拖尾星点图进行复原,最后将恢复出的星点图与原始清晰星点图送入判别器进行对抗训练。

图 2. 设计的星点复原流程

Fig. 2. Process of designed star restore

下载图片 查看所有图片

3.1 生成器网络设计

生成器以端到端的方式从模糊图像中获取运动流图。输入拖尾星点图,生成器估计出不均匀运动矢量M,输出流图尺寸与输入星点图一致,生成器的网络架构基于FCN[10]进行改动,如图3所示。使用卷积层(conv)进行下采样,使用解卷积进行上采样。浅色方块表示网络层,在对应网络层上标注了每一个卷积层的维度,维度用竖排数字与网络层下方数字表示(如conv 2的输出层的维度为128×128×128)。深色方块表示卷积核,维度由卷积核周围的数字表示(如5×5)。经过上采样得到的特征图的尺度与输入星图尺度一致,最终将这个特征图与模糊生成的运动流图同时送入对抗网络。

图 3. 生成器网络架构

Fig. 3. Network architecture of generator

下载图片 查看所有图片

3.2 损失函数设计

总损失函数的表达式为

Ltotal=Lflow+LGAN+Lcont,(8)

式中:Lflow为运动流图损失;Lcont为内容损失;LGAN为对抗损失。若输入星点灰度图尺寸为P×Q,则最后获取了P×Q的流图uv。在两个不同的softmax层获取了两个后验概率估计FuFv,用Fu,i,jFv,i,j分别表示像素点(i,j)沿水平方向运动u的概率和沿垂直方向运动v的概率。使用交叉熵计算Lflow:

Lflow=-i=1Pj=1QΙ[U(i,j)=u]logFu,i,j-i=1Pj=1QΙ[V(i,j)=v]logFv,i,j,(9)

式中:I[·]为选定坐标的像素值。

WGAN-div方法的评价方式为

D=argmaxDEx~Psharp(x)[D(x)]-Ex~Psmear(x)[D(x)]-kEx~r(x)[Dp]G=argminGEx~Psharp(x)[D(x)]-Ex~Psmear(z)D[G(z)],(10)

式中:Psharp为原始清晰星点的数据分布;Psmear为拖尾星斑分布;G为生成器,用来减少生成器损失;D为判别器,用来增加对抗损失;kp为常数;E[·]为概率分布的期望;ÑD为判别器输出值的梯度;r(x)为一个松散分布。使用Wu等[9]的参数计算损失,k=2,p=6,r(x)选择高斯分布。

将loss 1损失(两幅图像所有像素差的绝对值之和)和多尺度结构相似度(MS-SSIM)损失[11]相结合,loss 1能较好地保留灰度信息,MS-SSIM可以保留高频信息,还原出细节。则图像内容损失Lcont的评价方式为

Lcont=α·LMS-SSIM+(1-α)·Gaussσ2G·Lloss1,(11)

式中:LMS-SSIM为MS-SSIM损失;Lloss 1为loss 1损失;α取0.84;Gauss为高斯分布参数; σG2为生成器G输出值的方差。

通过混合损失函数,可以在运动流图估计的基础上通过像素级的细节处理提高图像恢复的质量。

4 实验与结果分析

4.1 数据集

选取欧洲空间局发布的依巴谷星表,使用星图软件模拟100幅星点图像,对每幅星点图模拟出50种方向各异的星点拖尾运动模糊图像,它们拥有不同的运动速度、方向及拖尾距离。生成的数据集有清晰图像、运动流图、模糊图像数据共5000组,其中4500组数据作为训练集,250组数据作为验证集,250组数据作为测试集。数据集的属性如表1所示,统计了视星等(visual magnitude)、每个星点覆盖的像元数、PSNR、SSIM及视场角(FOV)。

表 1. 拖尾星点数据集参数

Table 1. Parameters for smearing star dataset

ParameterValue
Visual magnitude4.5--10.8
Number of pixels3×3--10×10
PSNR15.58--25.83
SSIM0.612--0.768
FOV20'×20'

查看所有表

4.2 星点复原结果

首先在测试集上对GAN模型进行验证,如图4所示。采用的数据集具有多样性,同一幅图像不同星点的运动轨迹不一样,拖尾长度也不尽相同。在通过生成器预测出运动方向的基础上利用所提方法对图像进行去模糊操作,再利用判别器,进一步优化细节,使得模糊图像的质量得到大幅度的提升。图4(a)为原始星点图和模拟的拖尾运动成像星点图,星点的视星等为6.5~10.8,星点模拟运动包含了不同方向,有较长的拖尾。选取两个星点进行分析,覆盖的像素数量分别为5×5和4×4,运动方向分别为近似水平向右平移和45°右下方向平移。从图4(b)、(c)可以看出,原始星点的分布近似为高斯分布;拖尾星点能量沿运动方向分散;而复原后的星点能量分布集中,很好地保留了原始星点的特征,复原结果有利于后续的星点提取定位。

图 4. 星点恢复结果。(a)星点图;(b)星点1图像的细节与像素值分布;(c)星点2图像的细节与像素值分布

Fig. 4. Results of star restoration. (a) Star images; (b) details and pixel value distributions of star 1; (c) details and pixel value distributions of star 2

下载图片 查看所有图片

使用实拍星图进行复原验证,结果如图5所示。采用尼康D7100相机,其光学系统为牛顿反射系统,口径为130 mm,望远镜极限视星等为13。拍摄地点位于甘肃敦煌,地理坐标为东经94.71°,北纬40.13°。由于地球的自转,星点产生了漂移,星图中还包含了大量的背景噪声。从图5可以看出,使用的网络模型可以有效地抑制背景噪声,对拖尾星点进行复原后,复原的星点分布接近高斯模型。在实拍星图与恢复后的星图上使用质心法对星点进行提取,并且使用三角形方法对星图进行识别,图5(c)圆圈展示了星点提取的结果,三角形标出了目标星点的识别结果。在星图软件中对照依巴谷星表的坐标数据可知,星点提取的精度提升了32.8%,星图识别的匹配度提升了16%。

图 5. 实拍星图拖尾星点的复原结果。(a) 包含噪声的实拍星图;(b)复原出的星点图像;(c)星点质心定位结果

Fig. 5. Results of smearing star restoration in real scene. (a) Real stars with noise; (b) recovered stars; (c) result of star centroid localization

下载图片 查看所有图片

在测试集上对比了不同算法星点复原的结果,如图6所示。Wiener方法为Quan等[12]的盲反卷积的方法,使用维纳滤波去除模糊;R-L方法为传统的采用迭代复原的Richardson-Lucy算法,该方法建立PSF高斯模型和星点退化模型的表达式,采用迭代式解卷积;Flamary[7]方法主要用于复杂环境下的天文图像复原,训练三层CNN,用于处理传统模糊估计算法中非常复杂的多项式,减少运算复杂度,提升了图像质量。方框标出了两个不同位置的星点,并给出了对应的细节放大图。从图6(a)可以看出,星点产生了非常大的拖尾,能量分布非常分散,已经无法辨识星点,严重影响到星点质心的提取。从图6(b)可以看出,Wiener方法处理的结果仍然存在规则的运动拖尾。从图6(c)可以看出,R-L方法较好地解决了星点拖尾问题,但是能量仍然较为分散,存在平滑误差。从图6(d)可以看出,Flamary方法的复原结果有了较大改善,但是依赖于PSF先验,不能预测运动方向,拖尾较大时能量不够集中。从图6(e)可以看出,所提方法能量集中,可以清晰地看出星点轮廓。为了定量分析复原结果,计算出星点的PSNR,如表2所示,所提方法取得了最高的PSNR,符合图6所示的星点复原结果。

综合以上结果,所提方法无需反复迭代,无需先验输入,且对噪声有较好的抑制效果,可以很好地对复杂动态环境下的拖尾星斑进行复原。

表 2. 不同算法的PSNR比较

Table 2. Comparison of PSNR of different algorithms

MethodOriginWiener methodR-L methodFlamary methodProposed method
PSNR/dB10.8120.5626.7228.8131.09

查看所有表

图 6. 不同算法对拖尾星点的复原结果。(a)原始星图;(b) Wiener方法;(c) R-L方法;(d) Flamary方法;(e)所提方法

Fig. 6. Results of smearing star restoration using different methods. (a) Original star image; (b) Wiener method; (c) R-L method; (d) Flamary method; (e) proposed method

下载图片 查看所有图片

4.3 精细导星仪质心提取实验

为了验证所提方法在实际场景中星点提取精度提升的有效性,搭建如图7所示的实验平台。激光(模拟星点)被快速摆镜(FSM)平面反射到精细导星仪(FGS)上,用此过程来进行质心提取和姿态偏移解算。当FSM发生抖动时,FGS获取的星点产生位移,并在一定积分时间内形成拖尾。为了获取星点在像面位置的参考值,设计的实验系统参数为:FGS的焦距为137 mm,像元尺寸为11 μm,积分时间为50 ms;可以对FSM设置不同的角速度ω,以此来计算星点漂移速度。然后通过定标获取每个积分时间内的星点参考位置,则成像焦平面星斑的位移为

Δx=2θf/l,(12)

式中:θ为FSM的偏转角度;f为焦距;l为像元尺寸。如角速度ω=6 mrad/s,积分时间内θ=300 μrad,则Δx=7.5 pixel,星点产生了较长的拖尾。

图 7. FGS质心提取实验平台

Fig. 7. Experiment platform of FGS centroid extraction

下载图片 查看所有图片

设置ω分别为6,4,2 mrad/s,则相应的积分时间内星点漂移了7.5,5.0,2.5 pixel。通过实验,每个角速度下获取400帧星点图像,随机选取50帧拖尾星点,由(12)式确定参考位置,通过不同的复原方法对拖尾星点图像进行恢复,然后进行质心提取定位,最后计算质心提取定位与参考值的误差,将该结果作为定位误差,并对其取平均值。多种角速度下不同算法的星点复原的PSNR和质心定位误差如表3所示。

结果表明,随着FSM角速度的增加,星点漂移速度变快,相同积分时间内星点拖尾变长,不同方法复原出的星点PSNR降低,即复原出的星点能量变得分散,影响到质心提取算法的精度,从而导致定位精度有所下降。在不同的角速度下,所提方法取得了最好的PSNR和质心定位精度,在角速度为4 mrad/s时,所提方法性能最好,相比R-L方法,PSNR提升了30.5%,质心定位精度提升了33.4%。由此可以看出,所提方法可以稳定并有效地完成星点复原任务,同时具有优越的评价指标。

表 3. 不同角速度下的实验结果

Table 3. Experiment results under different angular speeds

ω /(mrad·s-1)PSNR after restoration /dBCentroid localization error
WienermethodR-L methodProposedmethodWiener methodR-L methodProposedmethod
618.6222.3628.920.3820.2560.183
419.4924.4131.850.3050.1620.108
221.8727.1033.530.1660.0940.068

查看所有表

5 结论

基于深度学习的方法,研究在复杂动态环境下空间望远镜运动引起的精密导星仪星斑拖尾问题。模拟出多样性运动拖尾模糊星斑,设计了生成对抗网络,并用该网络对拖尾星斑进行复原。所提方法将运动流图估计与生产对抗网络相结合,精确估计了运动方向,优化了图像细节,无需先验信息,无需迭代,还可抑制背景噪声。所提算法提升了星斑的PSNR和质心定位精度,对空间望远镜高精度姿态稳定系统具有重要意义。

参考文献

[1] KazemiL, EnrightJ, DzambaT. Improving star tracker centroiding performance in dynamic imaging conditions[C]∥2015 IEEE Aerospace Conference, March 7-14, 2015, Big Sky, MT. New York: IEEE, 2015: 1- 8.

[2] Yan J Y, Jiang J, Zhang G J. Dynamic imaging model and parameter optimization for a star tracker[J]. Optics Express, 2016, 24(6): 5961-5983.

[3] 姜亮, 张宇, 张立国, 等. 点扩散函数对星点提取误差分析的影响[J]. 红外与激光工程, 2015, 44(11): 3437-3445.

    Jiang L, Zhang Y, Zhang L G, et al. Effect of point spread functions on star centroid error analysis[J]. Infrared and Laser Engineering, 2015, 44(11): 3437-3445.

[4] Sun T, Xing F, You Z, et al. Smearing model and restoration of star image under conditions of variable angular velocity and long exposure time[J]. Optics Express, 2014, 22(5): 6009-6024.

[5] 王海涌, 周文睿, 林浩宇, 等. 静态像点高斯灰度扩散模型参数估计方法[J]. 光学学报, 2012, 32(3): 0323004.

    Wang H Y, Zhou W R, Lin H Y, et al. Parameter estimation of Gaussian gray diffusion model of static image spot[J]. Acta Optica Sinica, 2012, 32(3): 0323004.

[6] SunJ, Cao WF, Xu ZB, et al. Learning a convolutional neural network for non-uniform motion blur removal[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 769- 777.

[7] FlamaryR. Astronomical image reconstruction with convolutional neural networks[C]∥2017 25th European signal Processing Conference (EUSIPCO), August 28-september 2, 2017, Kos, Greece. New York: IEEE, 2017: 2468- 2472.

[8] 谢江荣, 李范鸣, 卫红, 等. 基于生成对抗式神经网络的红外目标仿真方法[J]. 光学学报, 2019, 39(3): 0311002.

    Xie J R, Li F M, Wei H, et al. Infrared target simulation method based on generative adversarial neural networks[J]. Acta Optica Sinica, 2019, 39(3): 0311002.

[9] Wu JQ, Huang ZW, ThomaJ, et al. Wasserstein divergence for GANs[M] ∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Cham: Springer, 2018: 673- 688.

[10] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

[11] NahS, Kim TH, Lee KM. Deep multi-scale convolutional neural network for dynamic scene deblurring[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI. New York: IEEE, 2017: 3883- 3891.

[12] QuanW, Zhang WN. Restoration of motion-blurred star image based on Wiener filter[C]∥2011 Fourth International Conference on Intelligent Computation Technology and Automation, March 28-29, 2011, Shenzhen, China. New York: IEEE, 2011: 691- 694.

王奇, 傅雨田. 用于高轨卫星精密稳像的拖尾星斑复原[J]. 光学学报, 2020, 40(13): 1311002. Qi Wang, Yutian Fu. Restoration of Smearing Stars in Fine Image Stabilization of High-Orbit Satellites[J]. Acta Optica Sinica, 2020, 40(13): 1311002.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!