结合注意力机制的双流卷积自编码高光谱解混方法
1 引言
高光谱遥感影像具有超高的光谱分辨率(一般为
高光谱解混本身属于不适定问题,当数据分布未知时,神经网络能比传统方法取得更加精确的效果[8],以深度学习方式进行光谱解混逐渐成为了解混领域研究的热点问题。自动编码器作为深度学习的一种典型模型,能够无监督地将高维数据转换成低维特征,这与高光谱解混中的丰度估计过程类似,越来越多的研究开始使用自动编码器进行高光谱解混方向的研究[9-13]。早期的研究大都使用单层编码器,例如文献[9],但是其编码器输入容易受到噪声干扰。为了提升解混算法对噪声的鲁棒性,文献[10]采用堆叠自编码对原始输入进行去噪处理。一些研究者认为,通过堆叠自编码进行去噪的方式可能会引入额外的重构误差,因此文献[12]使用边缘化去噪自编码算法对输入数据进行去噪,将去噪能力以去噪约束的方式纳入网络优化中,并且在编码器上使用
针对基于卷积自编码来联合空间信息进行光谱解混的研究中,不适当的网络结构中过度引入空间信息可能对光谱解混效果产生的负面影响,本文提出一种结合注意力机制的双流卷积自编码高光谱解混方法(DSCU-Net),尝试通过训练的方式从提取到的空间特征和光谱特征中自行选择出更具有表征性的特征进行光谱解混,以此来提高解混的精度。具体地,本文所做创新点如下。
1)为了兼顾光谱信息在欧几里得空间上的相似性和光谱相似性,在损失函数中同时引入欧氏距离和光谱角距离,将二者加权之和作为重构项的度量。
2)提出一种新的双流卷积自编码解混网络,并引入通道注意力机制对可能存在的冗余信息进行处理,使得解混网络能够关注关键的特征。
3)提出一种多尺度特征融合方法来提取高光谱数据中的特征,通过调整卷积核尺寸来分别提取不同尺寸下的高光谱特征并融合,提高网络对不同尺度特征的表达能力。
2 基于自动编码器的光谱解混方法
自动编码器一般由编码器和解码器两部分组成。其中编码器将观测到的高光谱像素
式中:
当网络训练完成时,重构出的高光谱数据与原输入的高光谱数据足够小,即认为此时解码器能根据编码器编码出的隐藏特征重构出原高光谱数据。而线性光谱混合模型的数学表达式为
式中:
3 基于双流卷积自编码的高光谱解混网络
新的网络结构由特征融合网络(feature fusion network)和光谱解混网络(spectral unmixing network)两部分组成,具体网络配置如
3.1 特征融合网络
特征融合网络是一个由双流卷积网络作为编码层的自动编码网络。双流卷积网络由光谱流卷积网络(spectral stream convolutional network)和空间流卷积网络(spatial stream convolution network)组成,分别提取高光谱图像的光谱特征和空间特征。网络的具体配置如
表 1. 特征融合网络的配置
Table 1. Configuration of the feature fusion network
|
1)光谱流卷积网络
其中光谱流卷积网络有2层卷积层。首先通过卷积核尺寸为
2)空间流卷积网络
空间流卷积网络则由2层卷积层和通道注意力机制层组成。输入为
在高光谱解混领域,通常认为混合像元的光谱存在着一定的空间相关性,即某像元处的光谱信息应该与邻域内其他像元的光谱信息有关,引入空间信息可以增加光谱解混在复杂场景下的适用性,但是这种假设并不总是有效的。混合光谱的形成是由端元物质的光谱、几何分布、在像元中的分布共同决定的[1],因此,并非每个像元处的光谱与其邻域像元都具有空间相关性。为了进一步挖掘这种局部空间相关性,在卷积层后引入了通道注意力机制对特征进行重加权处理。
文献[20]中提出了通道注意力机制,其目的是通过修改特征通道之间的依赖关系来提高提取特征的质量,如
压缩网络:压缩网络首先通过全局池化实现特征压缩,即将提取出的空间特征的每个通道特征尺寸压缩为
式中:
扩展网络:压缩网络仅仅能捕获每个通道上的信息,并没有带入通道与通道之间的依赖信息,而扩展网络则将压缩网络得到的特征依次输入全连接层、ReLU激活层、全连接层、Sigmoid激活层,以此来引入更加完整的空间信息。
式中:
为了确保融合特征
3.2 光谱解混网络
与特征融合网络类似,光谱解混网络同样采用了自动编码器的网络结构。首先是输入层,特征融合网络提取出的融合特征理论上同时包含了原始高光谱数据的光谱特征和空间特征,更具有表征性,因此将特征融合网络得到的融合特征作为输入,网络的第二层是一个二维卷积层,有64个特征图,卷积核尺寸为
表 2. 光谱解混网络的配置
Table 2. Configuration of the spectral unmixing network
|
为了约束丰度向量满足丰度非负约束(ANC),参考文献[17]的做法,使用clamp函数将编码器的输出限制在[0,1]。许多研究表明,clamp函数在高光谱图像领域能比其他传统激活函数有更好的性能[22-23]。此外,通过最小化每个像元位置丰度之和与1的差异来施加丰度和为一(ASC)约束,表达式为
式中:
3.3 损失函数的构建
通常,基于自编码进行光谱解混的研究中使用均方根误差(RMSE)计算重构损失。文献[20]为了减少光照、地形等因素导致的光谱信息放缩现象,使用光谱角距离(SAD)代替均方根误差计算重构误差。相较于均方根误差,光谱角距离能更好地处理光谱可变性,但是却不能提高欧氏空间的相似性。为了均衡均方根误差和光谱角距离对解混效果的影响,提出一种新的计算重构损失的方法。
式中:
式中:
式中:
4 实验内容
为了评估所提方法的性能,在两个真实数据集上进行实验,与
4.1 评估指标
实验使用均方根误差用于计算估计丰度矩阵与真实丰度矩阵之间的偏差,RMSE值越小,丰度估计的精度越高。光谱角距离则用来衡量提取端元与真实端元之间的相似性。与均方根误差不同的是,光谱角距离将端元光谱看作一个高维向量,通过计算两向量之间的夹角来度量光谱间的相似性能。光谱角距离的值越小,端元提取精度越高。各自的计算公式为
式中:
表 3. 实验中的参数设置
Table 3. Parameter setting in our experiment
|
4.2 实验环境及所用数据集
实验使用的电脑运行内存为4 GB,处理器为英特尔Xeon(至强)E5645,主频2.4 GHz。为了更好地评估所提方法的性能,利用了3个真实数据集(Samson数据集、Jasper Ridge数据集和Cuprite数据集),数据集具体的介绍如下。
1)Samson数据集:由SAMSON传感器捕获到的原始数据集包含了
2)Jasper Ridge数据集:该数据集由喷气推进实验室(JPL)的机载可见/红外成像光谱仪(AVIRIS)捕获。原始数据包含了
3)Cuprite数据集:该数据集由可见/红外光谱仪(AVIRIS)在内华达州Cuprite上空捕获,波谱范围为0.37~2.48
4.3 实验结果与分析
1)Jasper Ridge数据集上的实验
图 3. 不同算法获得的Jasper Ridge数据集中的树木、水、土壤和道路的丰度图
Fig. 3. Abundance maps of trees, water, soil, and roads on Jasper Ridge dataset obtained by different algorithms
表 4. Jasper Ridge数据集下不同算法的定量结果
Table 4. Quantitative results of different algorithms on Jasper Ridge dataset
|
2)Samson数据集上的实验
图 4. 不同算法获得的Samson数据集中的土壤、树木和水的丰度图
Fig. 4. Abundance maps of soil, trees, and water on Samson dataset obtained by different algorithms
表 5. Samson数据集下不同算法的定量结果
Table 5. Quantitative results of different algorithms on Samson dataset
|
3)在复杂场景下的性能表现
对于Jasper Ridge和Samson数据集,其端元个数较少,无法验证算法在复杂场景下的性能,因此在Cuprite数据集上进行了实验。
表 6. Cuprite数据集下各种算法的SAD值
Table 6. SAD values of different algorithms on Cuprite dataset
|
图 5. 不同算法获得的Cuprite数据集中不同端元对应的丰度图和Cuprite数据对应的伪彩色图片
Fig. 5. Abundance maps corresponding to different endmembers in Cuprite dataset obtained by different algorithms and the pseudo color image of Cuprite dataset
5 结论
提出了一种结合注意力机制的双流卷积自编码高光谱解混方法(DSCU-Net),相比以往的研究(直接使用卷积提取出的光谱特征进行光谱解混),所提网络使用双流结构分别提取空间特征和光谱特征,同时引入通道注意力机制对提取出的空间特征进行重加权,并且对得到的空间特征和光谱特征进行融合,使用融合后的特征进行空-谱联合高光谱解混。在两个真实数据集上进行实验,并且比对分析了复杂场景下算法的性能表现。结果表明DSCU-Net有效地减少了过度引入空间特征导致丰度过于平滑的现象,提升了光谱解混的精度。但所提方法仍有不足之处,复杂场景下不能取得很好的解混效果;此外,虽然引入了光谱角距离作为重构损失的度量,但是由于解码层中对所有像素都使用了同一端元矩阵,不能很好地处理光谱可变性带来的影响。因此如何处理同一场景下光谱可变性导致的光谱矩阵不唯一是接下来要研究的重点问题。
[1] 童庆禧, 张兵, 郑兰芬. 高光谱遥感: 原理、技术与应用[M]. 北京: 高等教育出版社, 2006.
TongQ X, ZhangB, ZhengL F. Hyperspectral remote sensing: theory, technology and application[M]. Beijing: Higher Education Press, 2006.
[2] 龚威, 史硕, 陈博文, 等. 机载高光谱激光雷达成像技术发展与应用[J]. 光学学报, 2022, 42(12): 1200002.
[3] 陈善学, 何宇峰. 基于空谱字典的加权联合稀疏表示高光谱图像分类[J]. 光学学报, 2023, 43(1): 0110002.
[4] 汪丽, 崔新月, 索建平, 等. 空气温度绝对探测激光雷达系统标定技术[J]. 光学学报, 2022, 42(18): 1828001.
[5] Shaw G A, Burke H K. Spectral imaging for remote sensing[J]. Lincoln Laboratory Journal, 2003, 14(1): 3-28.
[6] 贾响响, 郭宝峰, 丁繁昌, 等. 基于约束非负矩阵分解的高光谱解混[J]. 光子学报, 2021, 50(7): 0710005.
Jia X X, Guo B F, Ding F C, et al. Hyperspectral unmixing based on constrained nonnegative matrix factorization[J]. Acta Photonica Sinica, 2021, 50(7): 0710005.
[7] 伍小明. 基于核方法的高光谱遥感图像解混技术研究[D]. 杭州: 浙江大学, 2021.
WuX M. Research on unmixing technology of hyperspectral remote sensing images based on kernel method[D]. Hangzhou: Zhejiang University, 2021.
[8] Zhang X R, Sun Y J, Zhang J Y, et al. Hyperspectral unmixing via deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(11): 1755-1759.
[9] GuoR, WangW, QiH R. Hyperspectral image unmixing using autoencoder cascade[C]∥2015 7th Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS), June 2-5, 2015, Tokyo, Japan. New York: IEEE Press, 2017.
[10] Su Y C, Li J, Plaza A, et al. DAEN: deep autoencoder networks for hyperspectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(7): 4309-4321.
[11] Qu Y, Qi H R. uDAS: an untied denoising autoencoder with sparsity for spectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(3): 1698-1712.
[12] ChenM, WeinbergerK, ShaF, et al. Marginalized denoising auto-encoders for nonlinear representations[C]∥Proceedings of the 31th International Conference on Machine Learning, ICML2014, June 21-26, 2014, Beijing, China. Cambridge: JMLR, 2014: 1476-1484.
[13] Hua Z Q, Li X R, Qiu Q H, et al. Autoencoder network for hyperspectral unmixing with adaptive abundance smoothing[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(9): 1640-1644.
[14] 袁博. 空间与谱间相关性分析的NMF高光谱解混[J]. 遥感学报, 2018, 22(2): 265-276.
Yuan B. NMF hyperspectral unmixing algorithm combined with spatial and spectral correlation analysis[J]. Journal of Remote Sensing, 2018, 22(2): 265-276.
[15] Palsson B, Ulfarsson M O, Sveinsson J R. Convolutional autoencoder for spectral-spatial hyperspectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(1): 535-549.
[16] RanasingheY, HerathS, WeerasooriyaK, et al. Convolutional autoencoder for blind hyperspectral image unmixing[C]∥2020 IEEE 15th International Conference on Industrial and Information Systems (ICIIS), November 26-28, 2020, RUPNAGAR, India. New York: IEEE Press, 2021: 174-179.
[17] Tulczyjew L, Kawulok M, Longépé N, et al. A multibranch convolutional neural network for hyperspectral unmixing[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 6011105.
[18] Gao L R, Han Z, Hong D F, et al. CyCU-net: cycle-consistency unmixing network by learning cascaded autoencoders[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5503914.
[19] Hua Z Q, Li X R, Jiang J F, et al. Gated autoencoder network for spectral–spatial hyperspectral unmixing[J]. Remote Sensing, 2021, 13(16): 3147.
[20] HuJ, ShenL, SunG. Squeeze-and-excitation networks[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE Press, 2018: 7132-7141.
[21] Ozkan S, Kaya B, Akar G B. EndNet: sparse AutoEncoder network for endmember extraction and hyperspectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(1): 482-496.
[22] Zheng K, Gao L R, Liao W Z, et al. Coupled convolutional neural network with adaptive response function learning for unsupervised hyperspectral super resolution[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(3): 2487-2502.
[23] YaoJ, HongD, ChanussotJ, et al. Cross-attention in coupled unmixing nets for unsupervised hyperspectral super-resolution[M]∥Vedaldi A, Bischof H, Brox T, et al. Computer vision-ECCV 2020. Lecture notes in computer science. Cham: Springer, 2020, 12374: 208-224.
[24] Qian Y T, Jia S, Zhou J, et al. Hyperspectral unmixing via L1/2 sparsity-constrained nonnegative matrix factorization[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(11): 4282-4297.
[25] He W, Zhang H Y, Zhang L P. Total variation regularized reweighted sparse nonnegative matrix factorization for hyperspectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(7): 3909-3921.
[26] Li H Q, Borsoi R A, Imbiriba T, et al. Model-based deep autoencoder networks for nonlinear hyperspectral unmixing[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 5506105.
Article Outline
苏晓通, 郭宝峰, 尤靖云, 吴文豪, 许张弛. 结合注意力机制的双流卷积自编码高光谱解混方法[J]. 激光与光电子学进展, 2024, 61(4): 0428008. Xiaotong Su, Baofeng Guo, Jingyun You, Wenhao Wu, Zhangchi Xu. Dual-Stream Convolutional Autoencoding Network for Hyperspectral Unmixing using Attention Mechanism[J]. Laser & Optoelectronics Progress, 2024, 61(4): 0428008.