基于深度残差去噪网络的遥感融合图像质量提升 下载: 966次
1 引言
多光谱图像(MS)在遥感应用领域备受青睐,但由于传输带宽等因素的限制,遥感卫星很难直接获取高空间分辨率多光谱图像。通常遥感卫星只提供高空间分辨率的全色图像(PAN)与低空间分辨率的多光谱图像,利用融合算法将二者整合可获得一幅高空间分辨率多光谱图像,为遥感图像应用提供高质量的数据资源[1-2]。
变量替换法是最早的一类遥感图像融合方法。常见的变量替换方法有:颜色空间变换(IHS)[3]、主成分分析(PCA)[4]、Brovey变换(BT)[5]和Gram-Schmidt变换(GS)[6]等。变量替换法能有效地提高图像的空间分辨率,但当变换得到的亮度分量与全色图像有较大差异时,融合图像光谱保持能力差,容易造成光谱扭曲和色彩差异等问题。多尺度分析法如静态小波变换(SWT)[7]、支持值变换(SVT)[8]、àtrous小波变换(ATWT)[9]和高通滤波法(HPF)[10]等能有效保持源图像中的空间信息,但是当全色图像的细节与多光谱图像每个通道的细节差异较大时,融合图像的色彩在图像边缘处不够自然,假轮廓明显[2]。近年来,基于稀疏表示[1,11-12]和卷积神经网络(CNN)[13-14]的算法在遥感图像领域发展迅速,如遥感融合[15-16]、遥感分类[17-18]、遥感识别[19-20]等。基于稀疏表示和卷积神经网络的方法利用字典学习算法或优化算法以适应不同的遥感图像或遥感图像集,有效地解决了传统遥感融合方法的适应性问题,但融合图像中仍不可避免地存在一定的缺陷。例如,基于稀疏表示的遥感融合方法融合结果容易产生边缘效应。Wei等[15]受到深度残差网络在图像超分辨率上应用的启发,提出基于深度残差网络的遥感图像融合方法(DRPNN),该网络将低分辨率多光谱图像与全色图像合并输入网络,在重建融合图像前添加了一层卷积层,用于光谱通道降维,以提高融合图像的精度。但受限于训练层数和网络深度,该方法的融合性能很难进一步提升。
变量替换法和多尺度分析法都是基于某种固定的先验假设,而当这些先验假设与实际图像存在差异时,融合图像中往往会产生细节丢失或光谱扭曲。固定的先验假设也使这些丢失或扭曲缺点具有一定的稳定性,即不同的融合图像上存在的细节丢失或光谱扭曲具有一定的“模式”,这些特点为利用深度网络拟合并去除这些细节丢失或光谱扭曲提供了可能性。Zhang等[21]提出深度残差去噪网络(DnCNN),通过增加残差学习和批正规化,使得网络在处理图像超分辨率、JPEG解压缩图像去块等广义图像去噪问题上性能优越。遥感融合图像上存在的细节丢失或光谱扭曲的消除问题与图像超分辨率及JPEG解压缩图像去块问题具有很强的相似性,因此利用DnCNN学习固定融合算法中细节丢失或光谱扭曲的规律具有很大的优势。基于上述分析,本文将常规遥感图像融合结果与实际高分辨率遥感图像的残差视为广义噪声。利用DnCNN在广义去噪上的优势,提出一种基于残差学习的遥感图像质量提升算法。该算法作为遥感融合后置处理,通过学习参考图像(即理想高分辨率多光谱图像)和遥感图像融合结果之间的差异,生成残差图像,利用残差图像补充和修复遥感图像融合结果中的信息缺失与缺陷。
分析QuickBird卫星遥感图像数据,利用本文方法对不同遥感融合方法的结果进行增强,实验结果表明所有算法结果经过DnCNN的后置增强之后,融合质量都大为改善。其中基于SVT的方法与DnCNN结合的算法性能最好,其性能优于现有最新方法的结果。
2 深度残差去噪网络
传统卷积神经网络由于过拟合、梯度爆炸或梯度消失等问题,网络深度往往较浅,当加入正则项时,虽然网络可以更深并且收敛,但精度却趋于饱和,这个问题无法通过增加更多的网络层数来解决[22]。针对这一问题,He等[22]提出基于残差学习的深度残差网络,深度残差网络最大的特点就是跳层连接,可使网络对更为稀疏的残差分量进行学习,而非直接学习原始数据输入,通过输入和残差的和得到相应的网络输出。深度残差网络的结构使得网络的深度可以大大提高,学习效果大为改进,且网络还具有易于训练、收敛速度快等优点。在残差网络的基础上,DnCNN网络保留了深度残差网络的优势,只用一个跳层连接,同时加入批正规化层,运用Adam[23]算法进行网络学习,使得网络训练速度快,去噪效果好。
DnCNN共有
在网络训练的过程中,减小内层的非线性函数输入数据的分布变化可以有效提高优化算法的效率,批正规化通过利用小批量数据的均值和方差,在非线性映射前对数据进行放缩和平移,减小数据分布变化,提高训练效率。对于每个BN层的参数,可以用过优化算法来更新以适应不同的样本输入。批正规化有提高训练速度和网络精度、对初始值不敏感等优点。文献[ 21]中实验结果显示该网络不仅对一定范围的高斯噪声干扰图像具有良好去噪效果,在处理图像超分辨率、JPEG解压缩图像去块等广义图像去噪问题上性能也十分优越。将遥感融合结果与参考图像之间的差异看作广义噪声时,遥感图像退化模型与图像去噪、图像超分辨率的退化模型相同,因此可以将DnCNN应用于遥感融合领域。
3 基于深度残差去噪网络的遥感图像融合质量提升算法
传统遥感融合方法可以有效提高图像空间分辨率,但是不同的方法会产生不同的缺陷,例如光谱扭曲、图像模糊等。针对这一问题,利用DnCNN残差学习的特点,构建遥感融合提升网络,通过学习参考图像与融合结果的差异得到高分辨率多光谱图像,弥补了融合方法所导致的缺陷。
基于深度残差去噪网络的遥感融合图像质量提升算法框架如
传统遥感图像融合算法的结果
式中:
本文的提升网络结构如
式中:
从第2层到第
式中:
为了构建融合图像
将残差图像
根据参考图像
本文网络的训练过程,首先将多光谱图像和全色图像进行初步融合,将融合图像和对应的参考图像进行分块;然后作为训练数据输入提升网络,利用Adam算法和反向传递更新网络参数和权值,对网络进行训练,直到网络收敛。
4 实验结果与分析
实验采用QuickBird卫星数据[25],其全色图像空间分辨率为61~72 cm,光谱范围为760~850 μm。多光谱图像的空间分辨率为2.44~2.88 m,共4个通道,蓝色通道光谱范围为450~520 μm;绿色通道光谱范围为520~600 μm;红色通道光谱范围为630~690 μm;近红外通道光谱范围为760~900 μm。使用115幅遥感图像作为训练数据,依据Wald的protocal策略[26],首先将遥感图像下采样得到空间分辨率为2.8 m和11.2 m的全色图像和多光谱图像,把2.8 m空间分辨率的多光谱图像作为参考图像;然后利用传统遥感融合方法对图像进行预处理,得到初步融合图像;再将融合图像和参考图像分割为64×64的图像块,其中83%图像块作为训练数据,17%的图像块作为验证数据。采用主观视觉对比对融合结果进行评价的同时,利用CC[27](correlation coefficient)、SAM[28](spectral-angle mapper)、ERGAS[29](erreur relative global adimensionnelle de synthèse)和Q4 index[30]4个客观评价指标做进一步的综合评价。其中CC用来衡量融合图像和参考图像的光谱相关性,CC的值越大,表明融合图像与参考图像的光谱相关性越高,最优值为1;SAM用来衡量融合图像与参考图像之间的光谱相似,SAM通过对图像整体取平均得到图像光谱扭曲的度量,其值越小表明融合图像质量越高;ERGAS用于计算融合图像的整体质量,ERGAS越小表明融合图像质量越好,光谱保持能力越强;Q4用于计算融合图像的整体光谱质量,Q4值越大表明融合图像光谱质量越好,理想值为1。实验平台为Matlab R2017b,使用Intel Core i5-7300HQ 2.5 GHz处理器,16 GB内存和Nvidia GTX 1060 6 G显存。
为验证算法的有效性,本文用融合质量提升网络分别对BT[5]、通用颜色空间变换(GIHS)[3]、GS[6]、ATWT[9]、SVT[8]和SWT[7]六种经典的融合算法的融合结果进行质量提升。其中ATWT和SWT分解层数设置为3层,SWT采用小波基db6。SVT中的
图 4. 不同融合方法的结果。(a) ATWT;(b) BT;(c) GIHS;(d) GS;(e) SVT;(f) SWT
Fig. 4. Results of different fusion methods. (a) ATWT; (b) BT; (c) GIHS; (d) GS; (e) SVT; (f) SWT
图 5. 不同融合方法的提升结果。(a) ATWT;(b) BT;(c) GIHS;(d) GS;(e) SVT;(f) SWT
Fig. 5. Boosted results of different fusion methods. (a) ATWT; (b) BT; (c) GIHS; (d) GS; (e) SVT; (f) SWT
表 1. 不同融合方法及提升阶段的运行时间
Table 1. Running time of different methods and corresponding boosting stages
|
为了选择最优网络参数,设置训练策略中批大小
表 2. 不同方法的融合结果与提升结果的客观评价
Table 2. Evaluation of fusion results obtained by different methods and corresponding boosted results
|
图 6. 不同网络参数对实验结果的影响。(a) ERGAS;(b) SAM;(c) Q4;(d) CC
Fig. 6. Influences of different network parameters on experimental results. (a) ERGAS; (b) SAM; (c) Q4; (d) CC
为了进一步验证本文算法的优势,将SVT提升结果与CS[31]、DRPNN[15]和PNN[32]三种最新遥感融合方法的结果进行了对比分析。实验中CS的字典为随机采样训练图像块,重建误差
图 7. 参考图像及对比方法与本文方法结果。(a)参考图像;(b) CS;(c) DRPNN;(d) PNN;(e)本文方法
Fig. 7. Reference image and results of compared methods and proposed method. (a) Reference image; (b) CS; (c) DRPNN; (d) PNN; (e) proposed method
图 8. 参考图像及对比方法与本文方法结果。(a)参考图像;(b) CS;(c) DRPNN;(d) PNN;(e)本文方法
Fig. 8. Reference image and results of compared methods and proposed method. (a) Reference image; (b) CS; (c) DRPNN; (d) PNN; (e) proposed method
图 9. 不同参考图像及本文方法结果。(a)参考图像;(b)本文方法结果
Fig. 9. Different reference images and results of proposed method. (a) Reference images; (b) results of proposed method
表 3. 对比方法与本文方法的评价
Table 3. Evaluation of compared methods and proposed method
|
5 结论
提出一种基于DnCNN的遥感融合图像质量提升方法,利用DnCNN的残差学习训练速度快等优点,提升融合遥感图像的光谱质量,保持图像空间信息。该方法通过参考图像和融合图像训练DnCNN,利用残差学习得到残差图像,通过残差图像与融合图像的叠加修正融合图像,丰富图像信息。实际遥感图像上的对比实验结果表明,本文方法不仅能有效保持融合图像的空间信息,还可以提高融合图像的光谱质量,使得图像的视觉效果更自然。本文方法作为一种后置处理方法,可与其他遥感图像融合方法结合,进一步提高遥感图像融合结果的质量。本文算法也存在进一步完善的空间,如对于空间分辨率不固定的遥感图像的适应性问题,以及在现实情况下没有参考图像时本文网络训练方式等问题,这些将是后续研究的重要方向。
[2] 杨超, 杨斌, 黄国玉. 基于多光谱图像超分辨率处理的遥感图像融合[J]. 激光与光电子学进展, 2016, 53(2): 021001.
[3] Tu T M, Huang P S, Hung C L, et al. A fast intensity-hue-saturation fusion technique with spectral adjustment for IKONOS imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 309-312.
[4] Shah V P, Younan N H, King R L. An efficient pan-sharpening method via a combined adaptive PCA approach and contourlets[J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(5): 1323-1335.
[5] Gillespie A R, Kahle A B, Walker R E. Color enhancement of highly correlated images. II. Channel ratio and “chromaticity” transformation techniques[J]. Remote Sensing of Environment, 1987, 22(3): 343-365.
[6] Laben CA, Brower B V. Process for enhancing the spatial resolution of multispectral imagery using pan-sharpening: US6011875[P/OL].2000-01-04. [2019-01-05]. http:∥google.com/patents/US6011875.
[7] Li S T. Multisensor remote sensing image fusion using stationary wavelet transform: effects of basis and decomposition level[J]. International Journal of Wavelets, Multiresolution and Information Processing, 2008, 6(1): 37-50.
[8] Zheng S, Shi W Z, Liu J, et al. Remote sensing image fusion using multiscale mapped LS-SVM[J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(5): 1313-1322.
[10] GhassemianH. A retina based multi-resolution image-fusion[C]∥IEEE 2001 International Geoscience and Remote Sensing Symposium (Cat. No.01CH37217), July 9-13, 2001, Sydney, NSW, Australia. New York: IEEE, 2001: 709- 711.
[11] Han C, Zhang H Y, Gao C X, et al. A remote sensing image fusion method based on the analysis sparse model[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(1): 439-453.
[12] GhamchiliM, GhassemianH. Panchromatic and multispectral images fusion using sparse representation[C]∥2017 Artificial Intelligence and Signal Processing Conference (AISP), October 25-27, 2017, Shiraz, Iran. New York: IEEE, 2017: 80- 84.
[13] Scarpa G, Vitale S, Cozzolino D. Target-adaptive CNN-based pansharpening[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(9): 5443-5457.
[14] Yang JF, Fu XY, Hu YW, et al. PanNet: a deep network architecture for pan-sharpening[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 1753- 1761.
[15] Wei Y C, Yuan Q Q, Shen H F, et al. Boosting the accuracy of multispectral image pansharpening by learning a deep residual network[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1795-1799.
[16] Shao Z F, Cai J. Remote sensing image fusion with deep convolutional neural network[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(5): 1656-1669.
[17] 闫苗, 赵红东, 李宇海, 等. 基于卷积神经网络的高光谱遥感地物多分类识别[J]. 激光与光电子学进展, 2019, 56(2): 021702.
[18] 王民, 樊潭飞, 贠卫国, 等. PFWG改进的CNN多光谱遥感图像分类[J]. 激光与光电子学进展, 2019, 56(3): 031003.
[19] 鲍松泽, 钟兴, 朱瑞飞, 等. 基于短波红外遥感影像的船只自动检测方法[J]. 光学学报, 2018, 38(5): 0528001.
[20] 张庆春, 佟国峰, 李勇, 等. 基于多特征融合和软投票的遥感图像河流检测[J]. 光学学报, 2018, 38(6): 0628002.
[21] Zhang K, Zuo W M, Chen Y J, et al. Beyond a Gaussian denoiser: residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3142-3155.
[22] He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 770- 778.
[23] Kingma DP, Ba J. Adam: a method for stochastic optimization[J/OL]. ( 2017-01-30)[2019-01-05]. https:∥arxiv.org/abs/1412. 6980.
[24] IoffeS, SzegedyC. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]∥32nd International Conference on Machine Learning, July 6-11, 2015, Lille, France. Massachusetts: JMLR.org, 2015: 448- 456.
[25] DigitalGlobe. QuickBird scene 161009185940_01_P001: level standard 2A[DB/OL]. Longmont, Colorado:DigitalGlobe, 2002-01-20[2018-12-23]. http:∥glcf.umd.edu/data/quickbird/.
[26] Wald L, Ranchain T, Mangolini M. Fusion of satellite images of different spatial resolutions: assessing the quality of resulting images[J]. Photogrammetric Engineering and Remote Sensing, 1997, 63(6): 691-699.
[27] Ranchin T, Aiazzi B, Alparone L, et al. Image fusion: the ARSIS concept and some successful implementation schemes[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2003, 58(1/2): 4-18.
[28] Alparone L, Wald L, Chanussot J, et al. Comparison of pansharpening algorithms: outcome of the 2006 GRS-S data-fusion contest[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3012-3021.
[29] Khan M M, Alparone L, Chanussot J. Pansharpening quality assessment using the modulation transfer functions of instruments[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(11): 3880-3891.
[30] Alparone L, Baronti S, Garzelli A, et al. A global quality measurement of pan-sharpened multispectral imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 313-317.
[32] Masi G, Cozzolino D, Verdoliva L, et al. Pansharpening by convolutional neural networks[J]. Remote Sensing, 2016, 8(7): 594.
Article Outline
杨斌, 王翔. 基于深度残差去噪网络的遥感融合图像质量提升[J]. 激光与光电子学进展, 2019, 56(16): 161009. Bin Yang, Xiang Wang. Boosting Quality of Pansharpened Images Using Deep Residual Denoising Network[J]. Laser & Optoelectronics Progress, 2019, 56(16): 161009.