首页 > 论文 > 光学学报 > 39卷 > 03期(pp:0301002)

融合全局和局部深度特征的高分辨率遥感影像场景分类方法

  • 摘要
  • 论文信息
  • 参考文献
  • 被引情况
分享:

摘要

高分辨率遥感影像场景的分类对影像解译有重要意义。传统场景分类方法仅可获取中低层局部特征或全局特征,造成信息的丢失,且中低层特征对高分辨率遥感场景语义信息表达不足。本文提出一种融合全局和局部深度特征的视觉词袋模型(Global and Local Deep Features based Bag-of-visual-words,GLDFB),它同时顾及场景的局部和全局信息,通过视觉词袋模型将深度卷积神经网络提取的多个层次的高层特征进行重组编码并融合,并利用支持向量机对融合特征分类。该方法充分利用包含场景局部细节信息的卷积层特征和包含场景全局信息的全连接层特征,形成对遥感影像场景的高效表达,从而实现高分辨率遥感影像场景的准确分类。实验表明相比现有方法,本文方法在高层特征表达能力和分类精度方面都有显著提高。

Newport宣传-MKS新实验室计划
补充资料

DOI:10.3788/aos201939.0301002

作者单位:

    中国地质大学(武汉)
    中国地质大学(武汉)信息工程学院
    中国地质大学(武汉)信息工程学院
    中国地质大学(武汉)
    中国地质大学(武汉)
    华中科技大学文华学院

引用该论文

龚希,吴亮,谢忠,陈占龙,刘袁缘,俞侃. 融合全局和局部深度特征的高分辨率遥感影像场景分类方法[J].光学学报,2019,39(03):0301002.