作者单位
摘要
汕头大学 工学院 机械工程系, 广东 汕头 515063
视差不连续区域和重复纹理区域的误匹配率高一直是影响双目立体匹配测量精度的主要问题,为此,本文提出一种基于多特征融合的立体匹配算法。首先,在代价计算阶段,通过高斯加权法赋予邻域像素点的权值,从而优化绝对差之和(Sum of Absolute Differences,SAD)算法的计算精度。接着,基于Census变换改进二进制链码方式,将邻域内像素的平均灰度值与梯度图像的灰度均值相融合,进而建立左右图像对应点的判断依据并优化其编码长度。然后,构建基于十字交叉法与改进的引导滤波器相融合的聚合方法,从而实现视差值再分配,以降低误匹配率。最后,通过赢家通吃(Winner Take All,WTA)算法获取初始视差,并采用左右一致性检测方法及亚像素法提高匹配精度,从而获取最终的视差结果。实验结果表明,在Middlebury数据集的测试中,所提SAD-Census算法的平均非遮挡区域和全部区域的误匹配率为分别为2.67%和5.69%,测量200~900 mm距离的平均误差小于2%;而实际三维测量的最大误差为1.5%。实验结果检验了所提算法的有效性和可靠性。
机器视觉 立体匹配 SAD-Census变换 十字交叉法 引导滤波 machine vision stereo matching SAD-Census transform cross method guided filtering 
中国光学
2024, 17(2): 278
张晶晶 1,2,3,*杜兴卓 1,2,3支帅 4,5丁国鹏 4,5,*
作者单位
摘要
1 中国地质大学(武汉) 自动化学院,湖北武汉430074
2 复杂系统先进控制与智能自动化湖北省重点实验室,湖北武汉430074
3 地球探测智能化技术教育部工程研究中心,湖北武汉40074
4 中国科学院 微小卫星创新研究院,上海201203
5 上海微小卫星工程中心,上海201203
为解决基于深度学习的立体匹配方法面临着网络规模大、网络结构复杂等问题,提出了一个网络规模较小、精度较高的网络结构。该网络在特征提取模块删减修改了复杂冗余的残差层并引入了空洞卷积金字塔池化模块来扩大视野范围,提取更多有用的上下文信息;在代价计算模块中使用了三维卷积层以成本聚合提升立体匹配的精度;最后,在代价聚合模块引用了双边格网模块以较低分辨率的成本量来获取精度较高的视差图。将该网络在KITTI 2015数据集和Scene Flow数据集等主流数据集上进行实验,结果显示,相较于其他主流优秀网络类如金字塔立体匹配网络(Pyramid Stereo Matching Network ,PSM-Net),网络规模参数量减少了约38%,并取得了较高的实验精度,其中Scene Flow数据集的终点误差(End-point Error,EPE)为0.86,是一个同时兼顾速度与精度的立体匹配网络。
计算机视觉 立体匹配 人工神经网络 视差 computer vision stereo matching artificial neural network parallax 
光学 精密工程
2024, 32(3): 445
作者单位
摘要
贵州大学, 贵阳 550000
在复杂环境中执行任务已经成为旋翼无人机发展的必然趋势。为了让旋翼无人机在复杂环境中高效、安全地执行任务, 学者们对旋翼无人机的双目视觉避障技术展开了广泛的研究。为了解旋翼无人机的双目视觉自主避障技术的现状及发展趋势, 首先,介绍了双目视觉避障系统的构成, 分析各技术在双目视觉避障系统中的作用; 然后, 重点介绍双目视觉避障技术中常用的相机标定方法、立体匹配算法和避障算法, 总结了各自的优缺点, 并阐述最新发展; 最后, 对双目视觉避障技术的发展方向进行了展望。
旋翼无人机 相机标定方法 立体匹配算法 避障算法 综述 rotorcraft UAV camera calibration method stereo matching algorithm obstacle avoidance algorithm review 
电光与控制
2023, 30(11):
作者单位
摘要
1 西安工程大学电子信息学院,陕西 西安 710600
2 陕西省人工智能联合实验室西安工程大学分部,陕西 西安 710600
Overview: In the stereo matching process, unique pixel features are extracted by aggregating local and global context information. The pixel features on the pole lines of the left and right images are then matched. With the rapid application of deep learning (DL) methods in the field of image processing, end-to-end neural networks of DL are used to estimate the disparity maps. Although CNN-based algorithms have excellent feature representation capabilities, they often exhibit limitations in modeling explicit long-range relationships due to the inherent locality of the convolution operations. For objects with weak textures and large differences in shape and size, the results of using CNN alone are often unsatisfactory. To solve this problem, an improved model STransMNet stereo matching network based on the Swin Transformer is proposed in this paper. We analyze the necessity of the aggregated local and global context information. Then the difference in matching features during the stereo matching process is discussed. The feature extraction module is improved by replacing the CNN-based algorithm with the Transformer-based Swin Transformer algorithm. The rectified left and right images are fed into Swin Transformer module to generate multi-scale features. Then the multi-scale features are fed into the patch expanding module, the transformation of the linear layer, to make them the same size. Finally, the multi-scale features are fused in the channel dimension. The additional multi-scale fusion module makes the features output by the improved Swin Transformer fuse shallow and deep semantic information. The Swin Transformer used to extract the left and right image features is partially shared by the weights. Although weight sharing makes the model converge faster, our proposed feature differentiation loss can only supervise left or right images. If the full weights are shared, it is equivalent to supervising the left and right images at the same time. Partial weight sharing speeds up the convergence of the model to a certain extent. In addition, partial weight sharing enables the model to extract not only the commonalities of left and right image but also the differences. Furthermore, a feature differentiation loss is proposed in this work to improve the model's ability to pay attention to details. The loss is trained by forcing the classification of pixel features on the epipolar line of the left image, which makes each pixel feature unique. The experimental results on the Sceneflow and KITTI datasets show that our algorithm reduces the 3 px error and EPE compared to the previous algorithms. Experiments show that the proposed STransMNet model reduces the matching error and improves the quality of the disparity maps. It shows that the excellent performance of the improved Swin Transformer in capturing long-distance context information is beneficial to improving the accuracy of stereo matching; feature differentiation loss helps to enhance the detailed information of the disparity maps.
立体匹配 Swin Transformer 深度学习 STransMNet stereo matching Swin Transformer deep learning STransMNet 
光电工程
2023, 50(4): 220246
李涵 1,2,3黄妙华 1,2,3,*
作者单位
摘要
1 武汉理工大学现代汽车零部件技术湖北省重点实验室,湖北 武汉 430070
2 武汉理工大学现代汽车零部件技术湖北省协同创新中心,湖北 武汉 430070
3 武汉理工大学湖北省新能源与智能网联车工程技术研究中心,湖北 武汉 430070
针对现有立体匹配算法在弱纹理区域及深度不连续区域匹配精度低的问题,提出一种基于自适应区域划分的立体匹配算法。首先,利用十字交叉域算法获取像素点臂长,计算像素变化率完成区域划分。然后,通过绝对差算法,改进Census变换和自适应加权梯度算子计算初始代价卷,利用十字交叉域进行代价聚合,对聚合后图像通过改进引导图滤波优化,使用赢者通吃策略筛选最优视差。最后,利用左右一致性检测、迭代区域投票、视差填充优化和中值滤波得到最终视差图。在Middlebury测试平台上测试结果表明,所提算法平均误差率为4.21%,能够有效提升在弱纹理区域及深度不连续区域的匹配精度。
机器视觉 立体匹配 自适应区域划分 像素变化率 引导图滤波 
激光与光电子学进展
2023, 60(10): 1010015
杨晓立 1†徐玉华 1,*†叶乐佳 1赵鑫 1[ ... ]肖振中 1,**
作者单位
摘要
1 奥比中光科技集团股份有限公司,广东 深圳 518062
2 深圳奥芯微视科技有限公司,广东 深圳 518062
双目立体视觉模仿人类视觉系统对环境进行三维感知,通过对校正后的左右图像进行立体匹配获取两幅图像的视差,再根据三角测量原理计算出场景的深度,在近几十年中一直是计算机视觉领域的研究热点,取得了一系列的进展。传统的立体匹配方法采用手工设计的特征进行立体匹配,研究表明,这类方法对弱纹理或重复纹理区域以及遮挡区域表现不佳。近年来,基于深度学习的立体匹配方法取得了显著的进展,表现出了强大的应用潜力。本综述对这一不断发展的领域进行全面的调研,讨论不同方法之间的优点和局限性,介绍市面上的双目产品,并展望该领域的研究与应用前景。
立体视觉 立体匹配 深度学习 
激光与光电子学进展
2023, 60(8): 0811010
作者单位
摘要
东华理工大学机械与电子工程学院, 南昌 330000
针对基于Census变换的立体匹配算法匹配精度不理想、易受噪声干扰的问题, 提出一种自适应窗口结合改进Census变换的方法。通过自适应选择变换窗口大小, 并在Census变换中引入噪声容限参数, 且将其改进Census代价与RGB颜色差值代价加权融合, 再采用四路径代价聚合策略完成初始代价聚合, 最后用WTA算法计算初始视差后通过后处理优化得到最终视差。实验结果表明所提算法误匹配率较低, 抗噪性能有较好提升。
视觉检测 立体匹配 自适应窗口 Census变换 代价融合 visual inspection stereo matching adaptive window Census transformation cost fusion 
电光与控制
2023, 30(3): 33
作者单位
摘要
1 天津大学精密测试技术及仪器国家重点实验室,天津 300072
2 中国航空工业集团有限公司洛阳电光设备研究所光电控制技术重点实验室,河南 洛阳 471009
散斑结构光因只需投射一幅图像即可获取三维信息,成为近年来的研究热点。但利用散斑结构光进行三维信息获取时,存在散斑特征点匹配数量少、误匹配率高的问题,为此研究了散斑特征点提取与匹配算法。在分析散斑点区域灰度分布规律的基础上,提出一种基于灰度值比较的散斑特征点提取方法,通过比较窗口上相关像素灰度值进行粗提取,定义特征点响应函数消除冗余检测。匹配方面,建立散斑特征点描述子,提出一种基于描述子信息的多约束扩散匹配方法,首先通过多约束条件获得匹配度较高的种子点,生成种子点队列,其次利用队列中种子点的描述子信息,对描述子中未匹配的散斑特征点进行扩散匹配。实验结果表明,与其他方法相比,所提算法将匹配数量提高了35%以上,误匹配率降低到0.12%。
激光散斑 特征点描述子 散斑结构光 双目视觉 立体匹配 
激光与光电子学进展
2023, 60(6): 0611003
作者单位
摘要
上海电力大学能源与机械工程学院,上海 200090
尽管传统的立体匹配模型在精度和鲁棒性方面都表现出了良好的性能,但在弱纹理和深度不连续区域的视差精度问题依然存在。针对上述问题,提出了一种基于改进匹配代价和均值分割的最小生成树立体匹配算法。首先,在匹配代价计算阶段,通过Census变换进行初始匹配代价计算,利用Sobel算子对输入图像进行边缘信息提取,将提取后的图像边缘信息与Census变换后的匹配代价值进行融合,并将其与基于图像亮度信息的代价值进行非线性融合,以提高匹配代价的精度;然后,使用最小生成树代价聚合模型进行聚合操作并利用赢者通吃策略估计图像的初始视差;最后,在视差优化阶段,采用MeanShift算法对图像进行分割,结合图像的轮廓信息对误匹配点进行修正,进一步提高在弱纹理及边缘区域的视差精度。实验结果表明,与一些传统算法相比,所提算法具有更高的视差精度,且视差图的边缘、纹理较其他算法更为平滑,具有更强的鲁棒性。
机器视觉 立体匹配 Sobel算子 Census变换 最小生成树 
激光与光电子学进展
2023, 60(4): 0415002
林群鸿 1,2张举 1,2江开勇 1,2林俊义 1,2,*
作者单位
摘要
1 华侨大学厦门市数字化视觉测量重点实验室,福建 厦门 361021
2 华侨大学福建省特种能场制造重点实验室,福建 厦门 361021
针对多线结构光测量中测量效率与测量精度相矛盾的问题,提出了一种融合区域数字图像相关匹配的快速三维测量方法。采用双边滤波和大津阈值法对图像进行预处理,利用重心法提取初始条纹中心点。用双三次插值法提升初始点的局部邻域分辨率,在局部邻域内再次利用灰度重心法提高中心点的提取精度。以左图像提取的中心线为基准,利用数字图像相关法在右图像中心线附近搜索基准对应的立体匹配点,大大缩小了数字图像相关法的搜索范围,提高了测量效率和立体匹配精度。对标准块规的测量实验结果表明,该方法的中心线提取速度为Steger法的3.29倍,均方根误差相比传统极线约束立体匹配法减小了68.57%。
测量与计量 多线结构光 灰度重心法 数字图像相关法 立体匹配 三维测量 
激光与光电子学进展
2023, 60(1): 0112003

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!