激光与光电子学进展, 2020, 57 (2): 021012, 网络出版: 2020-01-03   

面向无人机自主飞行的无监督单目视觉深度估计 下载: 1264次

Unsupervised Monocular Depth Estimation for Autonomous Flight of Drones
作者单位
西安科技大学机械工程学院, 陕西 西安 710054
图 & 表

图 1. 双目深度估计原理

Fig. 1. Principle of binocular depth estimation

下载图片 查看原文

图 2. 无监督单目深度估计结构图

Fig. 2. Structural diagram of unsupervised monocular depth estimation

下载图片 查看原文

图 3. 图像重构模型

Fig. 3. Model of image reconstruction

下载图片 查看原文

图 4. 训练过程中各部分损失函数。(a)重构图像与原图的结构相似性损失;(b)重构图像与原图之差绝对值损失;(c)总的图像重构损失;(d)视差图平滑性损失;(e)左右视差图一致性损失;(f)本模型的总损失

Fig. 4. Loss function of each part of training process. (a) Structural similarity loss of reconstructed image and original image; (b) absolute value loss of difference between reconstructed image and original image; (c) total image reconstruction loss; (d) loss of disparity smoothness; (e) loss of consistency in left and right disparity maps; (f) total loss of our model

下载图片 查看原文

图 5. 无人机实验平台。(a)无人机;(b) NVIDIA Jeston TX2与Pixhawk连接

Fig. 5. Platform of drone experiment. (a) Drone; (b) connection of NVIDIA Jeston TX2 and Pixhawk

下载图片 查看原文

图 6. KITTI数据集上预测深度图实例。(a)输入的图片;(b)真实深度图;(c)文献[ 15]预测的深度图;(d)文献[ 20]预测的深度; (e) 本模型基于VGG-16预测的深度;(f)本模型基于ResNet-50预测的深度

Fig. 6. Examples of depth map predicted on KITTI dataset. (a) Input image; (b) ground truth depth map; (c) depth map predicted by Ref. [15] ; (d) depth map predicted in Ref. [20]; (e) depth map predicted by our model based on VGG-16; (f) depth map predicted by our model based on ResNet-50

下载图片 查看原文

图 7. 真实室外场景上预测深度图实例。(a)输入的图片;(b)真实深度图

Fig. 7. Examples of depth map predicted in real outdoor scenes. (a) Input images; (b) ground truth depth maps

下载图片 查看原文

表 1KITTI数据集上实验结果对比

Table1. Comparison of experimental results on KITTI dataset

MethodSupervisedError (lower is better)Accuracy (higher is better)Time /s
ERELERMSELog ERMSEδ<1.25δ<1.252δ<1.252
Ref. [12]Yes0.2036.3070.2820.7020.8900.9580.051
Ref. [15]Yes0.2026.5230.2750.6780.8950.9650.045
Ref. [19]No0.2086.8560.2830.6780.8850.9570.062
Ref. [20]No0.1595.7890.2340.7960.9230.9630.057
Our (VGG-16)No0.1485.4960.2260.8120.9120.9600.056
Our (RseNet-50)No0.1245.3310.2190.8470.9450.9750.048

查看原文

表 2Make3D数据集上实验结果对比

Table2. Comparisonof experimental results on Make3D dataset

MethodSupervisedError (lower is better)Accuracy (higher is better)Time/s
ERELERMSELog ERMSEδ<1.25δ<1.252δ<1.252
Ref. [12]Yes0.4178.5260.4030.6920.8990.9480.068
Ref. [15]Yes0.4629.9720.4560.6560.8870.9450.048
Ref. [19]No0.4438.3260.3980.6620.8850.9320.074
Ref. [20]No0.3877.8950.3540.7040.8990.9460.054
Our (VGG16)No0.3618.1020.3770.7270.9050.9580.061
Our (RseNet-50)No0.3287.5290.3480.7510.9240.9620.053

查看原文

赵栓峰, 黄涛, 许倩, 耿龙龙. 面向无人机自主飞行的无监督单目视觉深度估计[J]. 激光与光电子学进展, 2020, 57(2): 021012. Zhao Shuanfeng, Huang Tao, Xu Qian, Geng Longlong. Unsupervised Monocular Depth Estimation for Autonomous Flight of Drones[J]. Laser & Optoelectronics Progress, 2020, 57(2): 021012.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!