用于高轨卫星精密稳像的拖尾星斑复原 下载: 625次
1 引言
空间天文望远镜使用精密稳像系统来保持视轴稳定,星斑质心定位精度决定了载体的姿态解算精度[1]。在载体的动态环境下,星敏感器获取的星斑图将发生退化,形成拖尾,影响质心定位的精度,严重时会导致姿态解算错误[2]。因此,采用拖尾星斑复原方法提高质心算法精度有着非常重要的研究价值。
传统的星斑复原方法大多以点传递函数(PSF)为先验,建立凸优化模型,使用梯度下降等方法获取了较好的复原效果。姜亮等[3]对PSF模型进行误差补偿,受传感器的限制和采样频率的影响,复原结果对噪声敏感。Yan等[2]使用高斯模型对退化星斑进行建模,并对入射通量、曝光时间、角速度及高斯半径4个关键参数进行优化。Sun等[4]使用线段分布函数针对长曝光条件下不同速率的拖尾星点推导了PSF表达式,通过预测拖尾长度来复原星斑图像。王海涌等[5]建立并求解了以高斯扩散半径和像点质心坐标偏差为变量的方程组。这些方法都建立了空域不变的模糊核函数,然而在很多场景如大视场观测条件下,因视场空间变化,很难对PSF建模,而且优化算法时计算量很大。
基于深度学习的图像复原方法在动态场景图像的去模糊问题上取得了很好的结果,表现出强大的拟合能力。Sun等[6]使用卷积神经网络(CNN)预测模糊图像块的概率分布,有效地估计并去除了单幅图像的不均匀模糊。Flamary[7]利用深度学习的方法研究天文图像模糊复原问题,将哈勃空间望远镜实际观测的图像与生成的艾里斑卷积得到模拟的模糊图像,并将其作为监督信号,用CNN训练出一个反卷积核对图像进行复原,该方法无需图像后处理,得到了较好的复原效果。但是该方法仍然基于PSF先验来估计模糊核参数,忽略了运动方向,不能处理复杂环境下的星斑退化,泛化能力差。相比这些深度学习模型,生成对抗网络(GAN)没有复杂的损失函数设计,它的鉴别器与生成器可以非常好地学习到训练样本的分布,无需对参数建模,可以产生更加清晰、真实的星点。
本文提出通过一种端到端的生成对抗网络对动态环境下拖尾星斑进行复原的方法。使用非均匀多样化模糊模型模拟出5000个清晰-模糊图像对(包含运动方向流图),将其作为训练样本,设计一个融合了运动方向估计与模糊估计的对抗生成网络,该网络有效估计并去除了方向不一致的星斑运动模糊。所提方法无需复杂的参数,无需输入先验信息,无需任何图像后处理,提升了峰值信噪比(PSNR)和质心提取的精度。
2 拖尾星斑运动模糊模型
2.1 模糊核与运动流图
在复杂动态环境下,高轨卫星所处平台会发生三维平移与三维旋转运动,星敏感器在成像过程中对姿态的变化十分敏感,载体的扰动会使星斑产生运动拖尾模糊。星斑拖尾过程可以看作是清晰星斑与拖尾算子的卷积,包含噪声的数学模型可以表示为
式中:(x,y)为二维图像的坐标;f(x,y)为清晰星斑;k(x,y)为非均匀运动模糊核映射;n(x,y)为加性噪声;g(x,y)为拖尾模糊星斑。k(x,y)作用在像素点(x,y)周围的图片区域,此时像素点坐标记为(x',y'),则(x,y)像素值的计算公式为
从模糊星斑g(x,y)复原出清晰星斑,关键是估计出模糊核,并通过反卷积操作求解凸优化问题。采用非均匀局部模糊核,模糊核函数与像素的位置和运动有关,可使用线性运动模型计算每个像素的运动。令p=(x,y)表示像素点,在曝光期间像素点p的运动表示为二维运动矢量Mp=(up,vp),其中up、vp分别代表水平和垂直运动,则以p为中心的像素点(x',y')的模糊核表示为
式中:δ(·)为狄拉克函数;‖·‖2为2范数。因此,只要对每个像素点估计出运动矢量Mp,然后由(3)式计算出模糊核k,最后在(1)式的数学模型基础上对模糊图像进行盲反卷积操作,便可获取清晰图像。此方法的关键在于估计所有像素点的运动矢量M,这被称作运动流图。
2.2 拖尾星斑运动模糊生成方法
以往的模糊星斑模型如Yan等[2]、Sun等[4]提出的模型,都建立在理想的PSF高斯表达式的基础上,模糊核具有一致性。而在复杂的动态环境下,星敏感器的运动可能包含多种不同成分,因此,采取的运动模糊方法为非均匀局部运动模糊,该方法具有多样性,可以很好地反映复杂的成像环境。
本文仅模拟相机运动引起的运动模糊,忽略星点运动的影响。采用三维(3D)空间直角坐标系,坐标原点为相机光学中心,xy平面为探测器焦平面,z轴垂直于xy平面。相机的三维旋转与平移在探测器焦平面上体现为成像的二维平移。由于相机绕x轴或者y轴的旋转与三维平移产生的像素位移可能相同,为了避免模糊运动方向估计的混淆,仅模拟三维平移和z轴的旋转。运动矢量M由四个部分组成:
式中:MTx、MTy、MTz分别为沿x、y、z轴的平移运动矢量;MRz为沿z轴的旋转运动矢量。沿x轴和y轴的运动矢量的计算方式相同。以x轴为例,首先采样一个中心像素点pTx=(iTx,jTx),假定一个基准运动量tTx与加速度系数rTx,则
式中:(i,j)为像素点坐标;UTx为运动矢量的水平分量;VTx为运动矢量的垂直分量。
沿z轴的平移会使星斑径向运动模糊逐渐消失。MTx可以计算为
式中:d(i,j)为像素点(i,j)与消失点的距离;pTz为采样到的消失点;ζ和tTz用来控制径向图案,反映运动速度。
绕z轴旋转的运动,探测器成像为旋转运动图像,采样一个中心点pRz,角速度为ω,以顺时针方向为正方向。令
星点拖尾运动模糊模拟的效果如
图 1. 星点拖尾运动模糊模拟示意图。(a)三维坐标系下的运动模型;(b)星点拖尾运动结果
Fig. 1. Simulated diagram of star smearing motion blur. (a) Motion models in 3D coordinate system; (b) results of star smearing motion
3 星斑复原对抗生成网络
近年来,随着深度学习理论的不断发展和完善, 涌现出许多基于神经网络的新框架, 其中生成对抗网络可实现无需对训练样本标记的无监督学习, 已广泛应用于图片生成、补全、风格转换等领域[8]。利用对抗生成网络对复杂动态环境下星点拖尾运动模糊问题进行研究,该方式的主要创新点为:所提方法在生成训练数据的同时获取模糊图像的运动流图,提供神经网络处理星点复原问题的理论解释,提升了复原准确性;生成器采用类似全卷积神经网络(FCN)的架构,可以精确估计模糊星点到星点运动流图的映射;基于了混合损失函数,该函数包含了图像内容损失(content loss)、对抗损失(GAN loss)、运动流图损失(flow loss),在多个角度下提升了复原准确性;将Wu等[9]提出的Wasserstein散度作为训练目标,使用此方法的网络被称为WGAN-div,与最先进的去模糊方法——Wasserstein梯度惩罚生成对抗网络(WGAN-gp)相比,WGAN-div无需繁杂的Lipschitz约束、权重裁剪和梯度惩罚,同时保持了Wasserstein距离的优良特性。
设计的星点复原的流程如
3.1 生成器网络设计
生成器以端到端的方式从模糊图像中获取运动流图。输入拖尾星点图,生成器估计出不均匀运动矢量M,输出流图尺寸与输入星点图一致,生成器的网络架构基于FCN[10]进行改动,如
3.2 损失函数设计
总损失函数的表达式为
式中:Lflow为运动流图损失;Lcont为内容损失;LGAN为对抗损失。若输入星点灰度图尺寸为P×Q,则最后获取了P×Q的流图u和v。在两个不同的softmax层获取了两个后验概率估计Fu和Fv,用Fu,i,j和Fv,i,j分别表示像素点(i,j)沿水平方向运动u的概率和沿垂直方向运动v的概率。使用交叉熵计算Lflow:
式中:I[·]为选定坐标的像素值。
WGAN-div方法的评价方式为
式中:Psharp为原始清晰星点的数据分布;Psmear为拖尾星斑分布;G为生成器,用来减少生成器损失;D为判别器,用来增加对抗损失;k、p为常数;E[·]为概率分布的期望;ÑD为判别器输出值的梯度;r(x)为一个松散分布。使用Wu等[9]的参数计算损失,k=2,p=6,r(x)选择高斯分布。
将loss 1损失(两幅图像所有像素差的绝对值之和)和多尺度结构相似度(MS-SSIM)损失[11]相结合,loss 1能较好地保留灰度信息,MS-SSIM可以保留高频信息,还原出细节。则图像内容损失Lcont的评价方式为
式中:LMS-SSIM为MS-SSIM损失;Lloss 1为loss 1损失;α取0.84;Gauss为高斯分布参数;
通过混合损失函数,可以在运动流图估计的基础上通过像素级的细节处理提高图像恢复的质量。
4 实验与结果分析
4.1 数据集
选取欧洲空间局发布的依巴谷星表,使用星图软件模拟100幅星点图像,对每幅星点图模拟出50种方向各异的星点拖尾运动模糊图像,它们拥有不同的运动速度、方向及拖尾距离。生成的数据集有清晰图像、运动流图、模糊图像数据共5000组,其中4500组数据作为训练集,250组数据作为验证集,250组数据作为测试集。数据集的属性如
表 1. 拖尾星点数据集参数
Table 1. Parameters for smearing star dataset
|
4.2 星点复原结果
首先在测试集上对GAN模型进行验证,如
图 4. 星点恢复结果。(a)星点图;(b)星点1图像的细节与像素值分布;(c)星点2图像的细节与像素值分布
Fig. 4. Results of star restoration. (a) Star images; (b) details and pixel value distributions of star 1; (c) details and pixel value distributions of star 2
使用实拍星图进行复原验证,结果如
图 5. 实拍星图拖尾星点的复原结果。(a) 包含噪声的实拍星图;(b)复原出的星点图像;(c)星点质心定位结果
Fig. 5. Results of smearing star restoration in real scene. (a) Real stars with noise; (b) recovered stars; (c) result of star centroid localization
在测试集上对比了不同算法星点复原的结果,如
综合以上结果,所提方法无需反复迭代,无需先验输入,且对噪声有较好的抑制效果,可以很好地对复杂动态环境下的拖尾星斑进行复原。
表 2. 不同算法的PSNR比较
Table 2. Comparison of PSNR of different algorithms
|
图 6. 不同算法对拖尾星点的复原结果。(a)原始星图;(b) Wiener方法;(c) R-L方法;(d) Flamary方法;(e)所提方法
Fig. 6. Results of smearing star restoration using different methods. (a) Original star image; (b) Wiener method; (c) R-L method; (d) Flamary method; (e) proposed method
4.3 精细导星仪质心提取实验
为了验证所提方法在实际场景中星点提取精度提升的有效性,搭建如
式中:θ为FSM的偏转角度;f为焦距;l为像元尺寸。如角速度ω=6 mrad/s,积分时间内θ=300 μrad,则Δx=7.5 pixel,星点产生了较长的拖尾。
设置ω分别为6,4,2 mrad/s,则相应的积分时间内星点漂移了7.5,5.0,2.5 pixel。通过实验,每个角速度下获取400帧星点图像,随机选取50帧拖尾星点,由(12)式确定参考位置,通过不同的复原方法对拖尾星点图像进行恢复,然后进行质心提取定位,最后计算质心提取定位与参考值的误差,将该结果作为定位误差,并对其取平均值。多种角速度下不同算法的星点复原的PSNR和质心定位误差如
结果表明,随着FSM角速度的增加,星点漂移速度变快,相同积分时间内星点拖尾变长,不同方法复原出的星点PSNR降低,即复原出的星点能量变得分散,影响到质心提取算法的精度,从而导致定位精度有所下降。在不同的角速度下,所提方法取得了最好的PSNR和质心定位精度,在角速度为4 mrad/s时,所提方法性能最好,相比R-L方法,PSNR提升了30.5%,质心定位精度提升了33.4%。由此可以看出,所提方法可以稳定并有效地完成星点复原任务,同时具有优越的评价指标。
表 3. 不同角速度下的实验结果
Table 3. Experiment results under different angular speeds
|
5 结论
基于深度学习的方法,研究在复杂动态环境下空间望远镜运动引起的精密导星仪星斑拖尾问题。模拟出多样性运动拖尾模糊星斑,设计了生成对抗网络,并用该网络对拖尾星斑进行复原。所提方法将运动流图估计与生产对抗网络相结合,精确估计了运动方向,优化了图像细节,无需先验信息,无需迭代,还可抑制背景噪声。所提算法提升了星斑的PSNR和质心定位精度,对空间望远镜高精度姿态稳定系统具有重要意义。
[1] KazemiL, EnrightJ, DzambaT. Improving star tracker centroiding performance in dynamic imaging conditions[C]∥2015 IEEE Aerospace Conference, March 7-14, 2015, Big Sky, MT. New York: IEEE, 2015: 1- 8.
[2] Yan J Y, Jiang J, Zhang G J. Dynamic imaging model and parameter optimization for a star tracker[J]. Optics Express, 2016, 24(6): 5961-5983.
[3] 姜亮, 张宇, 张立国, 等. 点扩散函数对星点提取误差分析的影响[J]. 红外与激光工程, 2015, 44(11): 3437-3445.
[5] 王海涌, 周文睿, 林浩宇, 等. 静态像点高斯灰度扩散模型参数估计方法[J]. 光学学报, 2012, 32(3): 0323004.
[6] SunJ, Cao WF, Xu ZB, et al. Learning a convolutional neural network for non-uniform motion blur removal[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 769- 777.
[7] FlamaryR. Astronomical image reconstruction with convolutional neural networks[C]∥2017 25th European signal Processing Conference (EUSIPCO), August 28-september 2, 2017, Kos, Greece. New York: IEEE, 2017: 2468- 2472.
[8] 谢江荣, 李范鸣, 卫红, 等. 基于生成对抗式神经网络的红外目标仿真方法[J]. 光学学报, 2019, 39(3): 0311002.
[9] Wu JQ, Huang ZW, ThomaJ, et al. Wasserstein divergence for GANs[M] ∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Cham: Springer, 2018: 673- 688.
[10] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.
[11] NahS, Kim TH, Lee KM. Deep multi-scale convolutional neural network for dynamic scene deblurring[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI. New York: IEEE, 2017: 3883- 3891.
[12] QuanW, Zhang WN. Restoration of motion-blurred star image based on Wiener filter[C]∥2011 Fourth International Conference on Intelligent Computation Technology and Automation, March 28-29, 2011, Shenzhen, China. New York: IEEE, 2011: 691- 694.
Article Outline
王奇, 傅雨田. 用于高轨卫星精密稳像的拖尾星斑复原[J]. 光学学报, 2020, 40(13): 1311002. Qi Wang, Yutian Fu. Restoration of Smearing Stars in Fine Image Stabilization of High-Orbit Satellites[J]. Acta Optica Sinica, 2020, 40(13): 1311002.