激光与光电子学进展, 2023, 60 (6): 0615004, 网络出版: 2023-03-16   

基于亚像素图像拼接的透明元件视觉测量方法

Visual Measurement Method for Transparent Elements Based on Sub-Pixel Image Mosaics
作者单位
1 中国科学院国家天文台南京天文光学技术研究所天文光谱和高分辨成像技术研究室,江苏 南京 210042
2 中国科学院大学天文与空间科学学院,北京 100049
摘要
针对透明光学元件特征不明显以及机器视觉难以进行大视场、高精度尺寸测量的问题,提出一种基于亚像素图像拼接的视觉测量方案。该方案对相机坐标系与世界坐标系间的旋转角进行标定,获得精确的尺度因子与图像预匹配结果;图像坐标系旋转角校正后小于0.1°;通过添加网格背景实现透明元件特征匹配。所提基于滑动窗口预匹配、随机采样一致性筛选最佳偏移向量的配准算法,使图像拼接精度达到0.05 pixel,较已有研究明显提升。将该方案应用于透明光学元件视觉检测系统中,在移动精度仅为0.02 mm的条件下,获得了平均误差为0.12 pixel的图像拼接结果,实现了透明光学元件的大视场、高精度尺寸测量。
Abstract
A vision measurement scheme based on sub-pixel image stitching is proposed to solve the problems of unclear features of transparent optical elements, difficulty in the large field of view, and high-precision dimension measurement by machine vision. Furthermore, the rotation angle between the camera coordinate system and the world coordinate system is calibrated in the proposed scheme to obtain accurate scale factors and image-matching results. The rotation angle of the image coordinate system is less than 0.1° after correction. Additionally, feature matching of transparent components is achieved by adding a grid background. The proposed registration algorithm based on sliding window pre-matching and random sampling consistency to screen the best offset vector increases the image mosaic accuracy to attain 0.05 pixel, which is significantly improved compared with the previous studies. The scheme is applied to the vision inspection system of transparent optical elements. Under the condition that the moving accuracy is only 0.02 mm, the image mosaic result with an average error of 0.12 pixel is obtained, and the large field of view and high-precision size measurement of transparent optical elements are realized.

1 引言

“多色成像与无缝光谱巡天”模块是中国科学院载人空间站工程应用系统——“多功能光学设施”的天文终端模块,其中无缝光谱组件主要完成巡天观测任务中的无缝光谱观测。无缝光谱组件拼接光栅研制需得到光栅等透明光学元件高精度测量结果。机器视觉因其无接触、精度高的特点被应用到无缝光谱组件拼接光栅的高精度测量。

大视场精密测量通过局部成像、图像拼接来获得高分辨率图像,图像拼接的精度决定着测量精度1。目前,提高图像拼接精度的方法主要有算法改进与移动精度提高2个方向。典型算法包括:基于特征的scale-invariant feature transform(SIFT)、speeded-up robust features(SURF)、oriented fast and rotated brief(ORB)的特征匹配方法2-4、直方图分布法等;基于频域的相位相关法5、扩展相位相关法6;基于灰度相关的匹配算法7。文献[8]将样条插值与相位相关法结合得到亚像素偏移向量,提高了图像配准精度。移动精度提高方面,文献[9-11]通过精度为1 μm或0.2 μm光栅进行精确定位结合图像匹配算法得到误差为0.8 pixel、0.2 pixel的图像拼接结果。以上研究的图像拼接均依赖被测对象的特征点匹配或运动结构的精度,并不适用于本研究中透明元件的视觉测量。

文献[12-14]利用图像灰度、表面疵病对透明元件进行图像配准,精度为像素级且不适用于图像信息不丰富的完好透明光学元件图像拼接。透明元件尺寸测量难点包含:1)如何通过特征匹配得到图像配准结果;2)校正系统误差以减小特征匹配误差,包括图像坐标系与世界坐标系的安装旋转角、CCD与基准面之间的旋转矩阵;3)图像拼接需达到亚像素精度,减小图像拼接对尺寸测量的影响。

本文通过添加网格背景实现透明元件图像拼接时的特征匹配,为实现重复特征的图像拼接,提出一种基于滑动窗口预匹配、随机采样一致性(RANSAC)筛选最佳偏移向量的图像拼接方法,在610 pixel×800 pixel的图像拼接测试中拼接误差小于0.05 pixel。基于成像模型分析坐标系U轴与XW轴夹角、V轴与YW轴夹角、CCD平面与世界坐标系ZW'=0平面旋转矩阵R(α,β)并进行标定与校正,减小其对图像拼接与尺度因子标定的影响。在机器人移动精度仅为0.02 mm的情况下,得到拼接误差为0.12 pixel的大小为4976  pixel×3936 pixel的标定板图像拼接结果。该方法对特征点加以滑动窗口限制得到预匹配关系,提高特征点匹配效率,降低特征点误匹配率,已成功应用于无缝光谱组件拼接光栅的高精度测量。对于透明光学元件视觉测量,在相机安装误差校正及图像拼接方面的研究具有积极的意义。

2 理论分析

2.1 系统设计

视觉检测系统如图1所示,机器人HBR560移动精度为0.02 mm,末端执行处安装直角支撑板固定相机。相机AVT2750与上位机相连,分辨率为2750 pixel × 2200 pixel。光源选择环形灯光,安装于远心镜头侧面,镜头畸变小于0.05%。下方测量平台添加如图2所示的网格背景并放置待测元件。网格背景位于元件边缘内侧且覆盖所有子图,该背景在较小重叠区域中提供足够多的特征点,以便进行特征匹配。测量平台所在世界坐标系与CCD图像坐标系之间存在旋转关系,因此需要进行误差校正。校正后机器人沿世界坐标系XWYW轴移动,采集XWYW方向上的局部图像并传到上位机进行图像处理。图像处理部分完成图像拼接与网格背景去除,最终边缘定位得到测量结果。该检测系统主要包含两个环节:1)误差校正,包括图像坐标系与世界坐标系的安装旋转角、CCD与ZW=0之间的旋转矩阵;2)图像拼接,采用基于滑动窗口特征点匹配的亚像素图像拼接方法。

图 1. 视觉检测系统

Fig. 1. System of visual inspection

下载图片 查看所有图片

图 2. 光学元件及网格背景

Fig. 2. Optical elements and gridding background

下载图片 查看所有图片

2.2 坐标系标定与校正

图3(a)为CCD安装误差模型,图像坐标系UV轴应与世界坐标系XWYW轴分别平行,CCD平面应与ZW=0平面平行,但实际安装时存在偏差。需标定校正以下参数:1)U轴与XW轴夹角αU,XV轴与YW轴的夹角βV,Y;2)CCD平面与ZW'=0平面旋转矩阵R(α,β)

图 3. 系统误差。(a)CCD安装误差模型;(b)存在αU,X的成像模型

Fig. 3. System error. (a) Installation error model of CCD; (b) imaging model with αU,X

下载图片 查看所有图片

图像坐标系与世界坐标系的旋转角如图3(b)所示,CCD沿XW轴方向于O1O2时采集图像,存在αU,X时,CCD位于矩形a'b'c'd'位置,待拼接图像出现误对齐。特征点匹配需给定预匹配区域,αU,X过大导致预匹配误差较大,影响配准结果。CCD平面UO'V相对ZW=0平面的位置关系如图3(a)所示,ZW=0平面安装时实际为ZW'=0平面,平面不平行导致尺度因子标定存在偏差并造成检测对象投影变形。标定时所采用的标定板为黑白棋盘格标定板,棋盘格数目为20×16,单格边长为1.0 mm,尺寸精度为±0.001 mm,角度精度为±1 μrad

2.2.1 坐标轴旋转角校正

世界坐标系标定时,XWYW轴不完全垂直,因此校正时无法将αU,XβV,Y完全消除。图像分辨率为RU×CV,校正目标修改为RU×sinαU,XCV×sinβV,Y尽量小。

图4(a)为αU,X标定模型,αU,X=0时,重叠区域点P在左子图中的坐标为(u,v),右子图坐标为(u',v'),此时v=v',但当αU,X0时,vv'。分别采集具有重叠部分的黑白棋盘格标定板图像,重叠区域采集10组亚像素角点,根据式(1)计算αU,X,取平均值得到αU,X标定结果:

αU,X=arctan(a'dad)=arctan(v-v'u-u')

图 4. 坐标系旋转角标定。(a)αU,X标定;(b)βV,Y标定

Fig. 4. Calibration of coordinate system rotation angle. (a) Calibration of αU,X; (b) Calibration of βV,Y

下载图片 查看所有图片

βV,Y的标定方法与αU,X一致,但此时U轴与XW轴已平行,βV,Y的存在是由于XWYW轴不完全垂直,于是校正时如图4(b)所示,将YW'校正为YW

旋转角校正过程:1)沿XW移动并采集具有重叠区域的两幅图像,重叠区域选择10组亚像素角点,根据式(1)得到αU,X,移动机器人将CCD旋转对应角度以校正αU,X,校正后U轴与XW轴平行;2)沿YW移动并采集具有重叠区域的图像,计算方式同αU,X,得到βV,Y,通过重新标定机器人移动坐标系将YW'校正为YW。此时,XWYW轴垂直,U轴与XW轴平行,V轴与YW轴平行,坐标系旋转角校正完成。

2.2.2 CCD平面与ZW'=0平面校正

由于存在R(α,β),实际世界坐标系与图像坐标系为XW'YW'ZW'UO'V,如图3(a)所示。为将XW'YW'ZW'校正为平行条件下的XWYWZW,需标定得到XW'YW'ZW'关于XW逆时针旋转的旋转角α、关于YW顺时针旋转的旋转角β

成像模型如图5所示,ZW'=0平面存在矩形AB'C'D',其在XWOYW平面的投影为四边形ABCDCAB记为φXW'YW'ZW'坐标系中的ZW'=0平面与XWOYW平面的夹角为γ

图 5. 坐标系XW'YW'ZW'下的成像模型

Fig. 5. Imaging model with XW'YW'ZW'

下载图片 查看所有图片

为简化校正量关系,考虑AB'=AC'AB=AC的特殊情况。首先调整AB-AC<εε足够小),由于ABAC在角度αβ较小时变化很小,因此,ABAC需尽量大。此时γ=DAD',由坐标系变换分析得到坐标系XWYWZWXW'YW'ZW'的变换关系:

x'y'z'=RY,β×RX,α×xyz式中:RY,β=cosβ0-sinβ010sinβ0cosβ;RX,α=1000cosα-sinα0sinαcosα

根据坐标变换,D'点坐标的Z分量为sin αcos β+ sin β,可知γα满足关系式:

γ=arcsin(sinαcosβ+sinβ2)

通过CC'坐标变换与投影角度关系分析得到φαβ关系为

sinβsinα-cosαtan(φ-90°)=0

又有AB=AC,可知αβ满足关系式:

cos2β=sin2β×sin2α+cos2α

CCD与ZW'=0平面校正过程如下:

1)标定板摆放时保持所选择的AB'AC'UV轴尽量平行,采集标定板图像,角点检测得到ABAC长度,调整CCD绕UV轴旋转微小角度,直到满足投影线段AB=AC

2)检测ABAC所包含的角点,采用最小二乘法拟合得到直线ABAC的方程,两直线夹角即为φ,联立式(4)、(5)即可得到标定结果αβ

3)校正时首先旋转CCD绕YW逆时针旋转β,再绕XW顺时针旋转α,当误差Δe=2750×cosγ足够小时校正完成。

2.3 图像拼接

为得到亚像素级图像拼接结果,在图像配准时,采用角点作为特征点并进行角点亚像素定位。通过移动距离估计图像间粗匹配关系,提出一种基于滑动窗口预匹配、随机采样一致性筛选偏移向量最佳值的图像配准算法。

2.3.1 角点检测

角点检测常用方法包括Harris15、Shi-Tomasi16、SUSAN17角点。Harris角点相较于SUSAN角点在准确率、漏检率上表现更好。本实验希望筛选得到最佳偏移向量,而Shi-Tomasi作为Harris的改进方法在很多情况下可得到更准确的检测结果,因此选择Shi-Tomasi角点。选择Gauss函数作为窗口核函数w(x,y),点(x,y)的能量函数E(u,v)

E(u,v)=x,yw(x,y)[I(x+u,y+v)-I(x,y)]2

式中:I(x+u,y+v)I(x,y)表示像素(xy)附近像素(x+uy+v)的灰度值与像素(xy)的灰度值。当(u,v)取任意值时,角点的E(u,v)都将趋近于较大的值。将I(x+u,y+v)泰勒近似取到一阶项,有

E(u,v)=u,vMuv

式中:M=x,yw(x,y)Ix2IxIyIxIyIy2。根据实对称矩阵正交相似对角化,令

M=Pλ100λ2PT

此时,E(u,v)=λ1(u')2+λ2(v')2,可知λ1λ2同时很大时,能量函数E(u,v)为较大值。Harris角点令评价函数R=detM-k(traceM)2k为经验常数,取值为0.04~0.06。Shi-Tomasi角点检测将评价函数改进为R=min(λ1,λ2):当M的较小特征值大于阈值时,该点评价为强角点。

2.3.2 亚像素特征点定位

Shi-Tomasi角点精确到整数级,但角点通常不对应整数像素。图6为角点分析模型,a为角点,bi为其邻域内一点,考虑以下情况:1)bi位于均匀区域,则bi处的梯度Gi为0;2)bi位于边缘位置,则其梯度Giabi垂直。

图 6. 角点分析模型

Fig. 6. Model of corner analysis

下载图片 查看所有图片

综合两种情况均满足Gi(abi)=0Gibi梯度。亚像素角点计算公式为

a=(GiTGi)-1×(GiTGi)×bi

由于各点对亚像素角点贡献不同,引入高斯权重δi,得到亚像素角点计算公式为

a=(GiTGiδi)-1×(GiTGiδi)×bi

角点亚像素定位步骤如下:

1)a点为中心点,邻域Φ,采用Sobel算子对Φ卷积得到bi点的梯度Gi

2)利用式(10)得到新角点an作为中心点,利用插值法得到新邻域Φ

3)重复步骤1)、2)直到满足迭代条件,连续两次迭代中心点的距离小于阈值σ,本实验中σ10-3

2.3.3 特征点匹配

图7为滑动窗口特征点检测与匹配过程。重叠区域设置滑动窗口,窗口大小Ow需满足Ownn为校正后系统误差,小于10 pixel,本实验Ow=50 pixel×50 pixel。窗口沿UV轴同步移动,每移动一次,记录窗口中评价函数值最高的m个特征点在窗口内的坐标,为减少误匹配,本实验中取m=2。同组窗口下的特征点为可能的对应特征点,记录每组可能对应特征点之间的坐标偏移量(Dx,Dy)组成偏移向量数据集D(Dx,Dy),显然D中存在误匹配偏移向量。

图 7. 基于滑动窗口特征点匹配示意图

Fig. 7. Schematic diagram of feature point matching based on sliding window

下载图片 查看所有图片

RANSAC通过迭代方式筛选符合模型的局内点,去除偏离模型的局外点。将RANSAC思想应用到偏移向量集D的局内点筛选,以获得偏移向量最佳值。图8为偏移向量筛选原理,离群值为误匹配点间的偏移向量,成功匹配的偏移向量位于实际偏移量(Ex,Ey)附近并组成数据点群。筛选局内点步骤如下:

图 8. 偏移向量筛选

Fig. 8. Filter of offset vector

下载图片 查看所有图片

1)设定阈值r,集合内每两个点作为直径,计算半径不超过r的圆记为模型C

2)模型C内的点为局内点,统计样本集中模型C的局内点数量;

3)局内点最多的模型为最佳模型Cbest,局内点平均值为偏移向量最佳值。

2.3.4 亚像素级图像拼接

利用双线性插值实现图像拼接,加权平均值法实现图像融合。待拼接子图为I1I2,图像配准偏移向量为(x1-2,y1-2),像素灰度计算公式为

Im(x,y)=I1(x,y),(x,y)I1,(x,y)OAImerge(x,y),(x,y)OAI'(x,y),(x,y)I2,(x,y)OA

式中:I'(x,y)是插值重建的I2Imerge(x,y)为重合区域图像融合结果;OA为重合区域。

图像融合在图像拼接时用于去除缝合线。利用加权平均值融合去裂缝,权重α与当前点到重叠区域边界距离成正比,加权平均融合获得重合区域像素灰度值:

Imerge(i,j)=I1(i,j)×α+I'(i,j)×(1-α)

3 实验验证

3.1 标定

根据第2.2.1节方法得到的αU,XβV,Y进行图像坐标系与世界坐标系的标定与校正。图像采集时,两次采集距离为2/3视场以上。校正前αU,X=0.34°βV,Y=0.78°,对粗匹配影响分别为16.3 pixel[2750×tan(0.34°)]29.9 pixel[2200×tan(0.78°)],即重叠区域同一点坐标粗匹配误差为16.3 pixel与29.9 pixel,此时滑动窗口内特征点出现大量不匹配情况。校正后αU,X=0.055°βV,Y=0.024°,粗匹配坐标误差在U轴、V轴上分别为2.66 pixel、0.90 pixel。校正结果有利于得到准确的预匹配关系、提高滑动窗口中的特征点匹配率。

CCD平面与ZW'=0平面标定,调整得到AB为1748.81 pixel、AC为1748.66 pixel。采集标定板图像后φ=90.18°α=3.19°β=3.18°γ=4.50°。此时,2750×cos(4.50°)=2741.51 pixel,即实际占2750 pixel的线段成像后只占2741.51 pixel。校正后φ=90.02°、α=1.0026°β=1.028°γ=1.44°,实际2750 pixel的线段成像后为2749.13 pixel,误差很小。由于φ拟合时本身存在误差且校正结果已满足需求,校正完成。利用标定板标定尺度因子kw-c=4.57 μm/pixel

3.2 算法测试

为验证图像拼接算法准确性,选择610 pixel×800 pixel的测试图像、50 pixel×50 pixel的Ow进行算法测试,阈值r设为0.3~1 pixel。取不同图像偏移向量(范围0~10 pixel)得到15组测试图像,偏移向量(TU,TV)与测试结果(TU',TV')的对比如表1所示。最佳模型Cbest与偏移向量内点筛选结果如图9所示,筛选得到偏移向量局内点集合。由表1可知,对于尺寸为610 pixel×800 pixel的测试图像,UV轴拼接误差平均值均为0.04 pixel,有效提高了图像拼接精度,拼接误差最大值为0.1 pixel,算法稳定性也很高。

表 1. 偏移向量测试结果

Table 1. Test results of offset vector

No.TUTU'ΔTUTVTV'ΔTV
11.101.070.031.101.050.05
22.202.170.032.202.130.07
32.652.620.032.652.660.01
43.153.100.053.153.070.08
53.303.280.023.303.290.01
64.404.370.034.404.320.08
75.505.530.035.505.420.08
86.606.610.016.606.680.08
97.757.840.097.757.670.08
107.707.740.047.707.670.03
118.508.530.038.508.470.03
128.808.830.038.808.770.03
138.858.950.108.858.860.01
149.909.930.039.909.930.03
1510.009.990.0110.0010.000.00

查看所有表

图 9. 内点筛选结果

Fig. 9. Results of interior point screening

下载图片 查看所有图片

3.3 尺寸测量实验

3.3.1 标定板测试

实际拼接误差测试利用棋盘格标定板进行,机器人移动控制CCD在X轴移动距离为10 mm,Y轴为8 mm,采集2×2幅图像,小图分辨率为2750 pixel×2200 pixel,拼接得到标定板完整图像。图像拼接误差来自重叠区域的缝合处,因此,对比拼接缝处单个棋盘格所占像素与非缝合线处单个棋盘格所占像素即可得到拼接误差。单个棋盘格所占像素通过棋盘格的角点亚像素定位并计算角点距离即可。表2为拼接缝处与非拼接缝处1 mm所占像素对比,结果显示,本实验的图像拼接方法在实际应用时图像拼接精度得到有效提升,标定板实验中拼接所得的图像分辨率为4976 pixel×3936 pixel,平均拼接误差约0.12 pixel。通过标定板实验可知,视觉系统在经过坐标系校正后,图像拼接算法对所获得的实际元件拼接图像的拼接误差很小,对尺寸测量时的影响极小,该视觉系统拼接所得图像满足精密测量的要求。

表 2. 单位长度在拼接处与非拼接处所占像素对比

Table 2. Pixels per unit length compared at stitching and unstitched area

No.Stitching areaUnstitched areaError
Average218.87218.790.12
1218.89218.780.12
2218.74218.800.05
3218.93218.780.15
4218.71218.820.10
5218.82218.850.03
6218.93218.760.18
7218.74218.700.03
8218.94218.710.23
9219.02218.820.20
10218.94218.850.08

查看所有表

3.3.2 透明光学元件尺寸测量

误差校正完成、采集标定板图像并获得尺度因子kw-c后,在测量平台上放置待测透明元件,机器人于XWYW轴移动,移动距离分别为10 mm与8 mm,对透明光学元件采集图像并进行图像拼接。采集的3×3共9幅子图如图10(a)所示,拼接得到完整图像并去背景得到的测试元件如图10(b)所示,分辨率为7172 pixel×5662 pixel。拼接衔接处无明显的灰度跳变,拼接缝有效去除。

图 10. 光学元件拼接。(a)图像采集;(b)图像去背景

Fig. 10. Optical element splicing. (a) Image acquisition; (b) image after removing background

下载图片 查看所有图片

选取边界点,拟合边界所在直线并求边界直线之间的距离得到测量结果,并将其与工具测量尺寸进行对比,如表3所示。人工筛选边界点时未精确到亚像素边缘导致视觉测量结果中含一定误差,但视觉系统测量结果平均值仍与人工测量结果偏差在1 pixel以内,亚像素图像拼接对测量结果的影响很小,后续通过边缘亚像素定位可将视觉系统的测量结果进一步提升。

表 3. 视觉测量与人工测量对比

Table 3. Comparison between visual measurement and manual measurement

No.ArtificialVisual
Average1994619946.86
11994519943.88
21994819949.07
31994619948.35
41994619944.82
51994519948.21

查看所有表

4 结论

针对透明光学元件大视场高精度尺寸测量中,CCD分辨率与视场相互制约、透明光学元件特征点不明显,难以进行特征匹配的问题,提出一种基于亚像素图像拼接的视觉测量方法。该方法通过分析成像模型完成相机外参-旋转矩阵的标定,对透明元件添加特征背景进行图像配准得到亚像素偏移向量,图像拼接精度远高于运动机构的移动精度。相较于文献[10-11],所提方法应用于实际测量系统时对机器人的定位精度为0.02 mm,但图像拼接精度提高到0.12 pixel,拼接精度明显提升,图像拼接结果对尺寸测量影响极小。该视觉测量系统适用于二维图像拼接的透明光学元件与非透明元件测量,但由于待测量元件边缘难以精确定位,需要对边缘定位进一步研究以获得更精确的测量结果。

参考文献

[1] 刘飞, 吴晓琴, 赵琳, 等. 广域高分辨率计算光学成像系统研究进展[J]. 激光与光电子学进展, 2021, 58(18): 1811001.

    Liu F, Wu X Q, Zhao L, et al. Research progress of wide-field and high-resolution computational optical imaging system[J]. Laser & Optoelectronics Progress, 2021, 58(18): 1811001.

[2] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[3] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

[4] RubleeE, RabaudV, KonoligeK, et al. ORB: an efficient alternative to SIFT or SURF[C]∥2011 International Conference on Computer Vision, November 6-13, 2011, Barcelona, Spain. New York: IEEE Press, 2011: 2564-2571.

[5] 方俊伟, 翟超, 金熠. 相位相关法实现图像拼接的仿真与优化[J]. 计算机应用与软件, 2008, 25(1): 207-208.

    Fang J W, Zhai C, Jin Y. Simulation and optimization of phase correlation algorithms in image mosaics[J]. Computer Applications and Software, 2008, 25(1): 207-208.

[6] de Castro E, Morandi C. Registration of translated and rotated images using finite Fourier transforms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1987(5): 700-703.

[7] 李晓娟. 图像拼接技术研究[D]. 西安: 西安电子科技大学, 2007.

    LiX J. Research on image mosaic technology[D]. Xi’an: Xidian University, 2007.

[8] 赵飞, 王仲, 叶声华. 基于图像拼接的微小零件视觉检测方法[J]. 宇航计测技术, 2006, 26(4): 8-12.

    Zhao F, Wang Z, Ye S H. Vision measurement method based on image mosaicing for micro-part[J]. Journal of Astronautic Metrology and Measurement, 2006, 26(4): 8-12.

[9] 王小龙. 基于光栅定位的序列图像快速拼接技术研究[D]. 成都: 四川大学, 2004.

    WangX L. Study on fast mosaic technique of sequence images based on orientation by grating[D]. Chengdu: Sichuan University, 2004.

[10] 陈世哲, 胡涛, 刘国栋, 等. 基于光栅的快速精确图像拼接[J]. 光学 精密工程, 2006, 14(2): 242-246.

    Chen S Z, Hu T, Liu G D, et al. Fast and precision image mosaic based on grating[J]. Optics and Precision Engineering, 2006, 14(2): 242-246.

[11] 宋昀岑, 陈伟, 叶玉堂, 等. 具重复特征的大物面自动视觉检测中的亚像素级拼接[J]. 光学学报, 2014, 34(3): 0315002.

    Song Y C, Chen W, Ye Y T, et al. Sub-pixel stitching method for large object with duplicate texture of automatic visual inspection[J]. Acta Optica Sinica, 2014, 34(3): 0315002.

[12] 陆春华. 基于机器视觉的大口径精密表面疵病检测系统研究[D]. 杭州: 浙江大学, 2008.

    LuC H. Research on machine vision-based large-aperture precision surface defect detection system[D]. Hangzhou: Zhejiang University, 2008.

[13] 冯博, 陈凤东, 张建隆, 等. 基于图像拼接的惯性约束聚变终端光学元件在线检测[J]. 光学 精密工程, 2014, 22(3): 555-561.

    Feng B, Chen F D, Zhang J L, et al. Online inspection of final optics based on image mosaic for ICF system[J]. Optics and Precision Engineering, 2014, 22(3): 555-561.

[14] 刘旭, 任寰, 杨一, 等. 适合表面疵病检测的图像拼接方法[J]. 中国激光, 2010, 37(S1): 234-238.

    Liu X, Ren H, Yang Y, et al. Sub-aperture synthesis method for detecting defects of optical components[J]. Chinese Journal of Lasers, 2010, 37(S1): 234-238.

[15] HarrisC G, StephensM J. A combined corner and edge detector[C]∥Proceedings of the Alvey Vision Conference 1988, September, 1988, Manchester, UK. London: Alvey Vision Club, 1988: 147-151.

[16] ShiJ B, Tomasi. Good features to track[C]∥1994 Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, June 21-23, 1994, Seattle, WA, USA. New York: IEEE Press, 1994: 593-600.

[17] Smith S, Brady J. SUSAN: a new approach to low level image processing[J]. International Journal of Computer Vision, 1997, 23(1): 45-78.

李世林, 戴松新, 胡中文, 季杭馨. 基于亚像素图像拼接的透明元件视觉测量方法[J]. 激光与光电子学进展, 2023, 60(6): 0615004. Shilin Li, Songxin Dai, Zhongwen Hu, Hangxin Ji. Visual Measurement Method for Transparent Elements Based on Sub-Pixel Image Mosaics[J]. Laser & Optoelectronics Progress, 2023, 60(6): 0615004.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!