作者单位
摘要
北京林业大学理学院, 北京 100083
为了减少高光谱图像的训练样本, 同时得到更好的分类结果, 本文提出了一种基于密集连接网络和空谱变换器的双支路深度网络模型。该模型包含两个支路并行提取图像的空谱特征。首先, 两支路分别使用 3D和 2D卷积对子图像的空间信息和光谱信息进行初步提取, 然后经过由批归一化、Mish函数和 3D卷积组成的密集连接网络进行深度特征提取。接着两支路分别使用光谱变换器和空间变换器以进一步增强网络提取特征的能力。最后两支路的输出特征图进行融合并得到最终的分类结果。模型在 Indian Pines、University of Pavia、Salinas Valley和 Kennedy Space Center数据集上进行了测试, 并与 6种现有方法进行了对比。结果表明, 在 Indian Pines数据集的训练集比例为 3%, 其他数据集的训练集比例为 0.5%的条件下, 算法的总体分类精度分别为 95.75%、96.75%、95.63%和 98.01%, 总体性能优于比较的方法。
高光谱图像分类 光谱变换器 空间变换器 密集连接网络 双支路深度网络模型 hyperspectral image classification spectral transformer module, spatial transformer m DenseNet two branch deep network model 
红外技术
2022, 44(11): 1210
作者单位
摘要
1 深圳供电局有限公司福田供电局, 深圳 518001
2 西安电子科技大学电子工程学院, 陕西 西安 710071
3 中国科学院上海技术物理研究所中国科学院智能红外感知重点实验室, 上海 200083
针对现有图像超分辨重建方法难以充分重建图像的细节信息且易出现重建的图像缺乏层次的问题,提出一种基于自注意力深度网络的图像超分辨重建方法。以深度神经网络为基础,通过提取低分辨率图像特征,建立低分辨率图像特征到高分辨率图像特征的非线性映射,重建高分辨率图像。在进行非线性映射时,引入自注意力机制,获取图像中全部像素间的依赖关系,利用图像的全局特征指导图像重建,增强图像层次。在训练深度神经网络时,使用图像像素级损失和感知损失作为损失函数,以强化网络对图像细节信息的重建能力。在3类数据集上的对比测试结果表明,所提方法能够提升图像超分辨重建结果的细节信息,且重建图像的视觉效果更好。
图像处理 图像超分辨 自注意力机制 感知损失 深度网络 卷积神经网络 
激光与光电子学进展
2021, 58(4): 0410013
Author Affiliations
Abstract
1 Department of Biomedical Engineering, School of Medicine Tsinghua University, Beijing, 100084, China
2 Beijing Advanced Information & Industrial Technology Research Institute Beijing Information Science & Technology University Beijing, 100192, China
Intensity-based quantitative fluorescence resonance energy transfer (FRET) is a technique to measure the distance of molecules in scale of a few nanometers which is far beyond optical diffraction limit. This widely used technique needs complicated experimental process and manual image analyses to obtain precise results, which take a long time and restrict the application of quantitative FRET especially in living cells. In this paper, a simplified and automatic quantitative FRET (saqFRET) method with high efficiency is presented. In saqFRET, photoactivatable acceptor PA-mCherry and optimized excitation wavelength of donor enhanced green fluorescent protein (EGFP) are used to simplify FRET crosstalk elimination. Traditional manual image analyses are time consuming when the dataset is large. The proposed automatic image analyses based on deep learning can analyze 100 samples within 30 s and demonstrate the same precision as manual image analyses.
Resonance energy transfer fluorescence living cells photoactivatable deep network 
Journal of Innovative Optical Health Sciences
2020, 13(6): 2050021
作者单位
摘要
北京工业大学信息学部, 北京 100022
针对无人机(UAV)航拍图像中目标占比较小、拍摄角度和高度多变等问题,提出了一种基于多尺度特征融合的自适应无人机目标检测算法。利用深度可分离卷积结合残差学习的优点,建立了轻量化特征提取网络。构建多尺度自适应候选区域生成网络,将空间尺寸一致的特征图按照通道维度进行加权融合操作,增强了特征对目标的表达能力,并利用语义特征指导网络在多尺度特征图上自适应生成与真实目标更加匹配的目标候选框。仿真实验表明,该算法有效提升了无人机航拍目标检测精度,具有较好的鲁棒性。
机器视觉 无人机 目标检测 深度网络 特征融合 
光学学报
2020, 40(10): 1015002
作者单位
摘要
安徽农业大学信息与计算机学院智慧农业技术与装备安徽省重点实验室, 安徽 合肥 230036
为自动识别油菜田间的杂草,提出基于Faster R-CNN深度网络的油菜田间杂草识别方法,利用COCO数据集的深度网络模型进行迁移训练。首先,以自然环境条件下的油菜与杂草图像为样本,利用Faster R-CNN深度网络模型共享卷积特征,对比VGG-16、ResNet-50和ResNet-101这3种特征提取网络的结果;该方法还与采用3种相同特征提取网络的SSD深度网络模型进行对比。结果表明,基于VGG-16的Faster R-CNN深度网络模型在油菜与杂草目标识别中具有明显的优势,其油菜与杂草的目标识别精确度可达83.90%,召回率达到78.86%,F1值为81.30%。该深度学习方法能够有效实现油菜与杂草目标的准确、高效识别,为多类型杂草目标识别的研究提供了参考。
机器视觉 深度学习 Faster R-CNN深度网络 目标识别 油菜与杂草图像 
激光与光电子学进展
2020, 57(2): 021508
作者单位
摘要
海军航空大学岸防兵学院, 山东 烟台 264001
近年来,基于深度学习的单幅图像超分辨率方法已经取得了显著成就。但这些方法仅研究图像空域,忽略了图像频域中高频信息的重要性,从而导致生成的图像相对平滑。利用小波变换能够提取图像细节的特性,因此提出一种结合小波变换与深度网络的单幅图像超分辨率方法。首先,利用小波变换将图像分解为低频子图和三个方向上的高频子图,将低分辨率图像与高频子图作为深度网络的输入。其次,对已有的深度网络进行改进,简化网络结构,减少卷积层数量以减少网络负担,修改网络通道。最后,进行小波逆变换,得到超分辨率图像。在开放测试数据集上进行测试,并将本文方法与其他方法进行比较。实验结果表明,本文方法在主观视觉效果与客观评价指标上均表现良好。
图像处理 超分辨率 小波变换 深度网络 卷积神经网络 
激光与光电子学进展
2018, 55(12): 121006

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!