激光与光电子学进展, 2021, 58 (4): 0415002, 网络出版: 2021-02-08   

基于边缘多通道梯度模型的多运动目标检测 下载: 857次

Multi-Moving Object Detection Based on Edge Multi-Channel Gradient Model
作者单位
上海工程技术大学电子电气工程学院, 上海 201620
摘要
针对视频序列运动目标检测易受环境噪声干扰、提取目标轮廓困难的问题,提出了一种基于边缘多通道梯度改进模型的多运动目标检测算法。首先,利用Canny算子获取视频序列中目标的边缘信息,并根据人类视觉色彩的恒常特性,对目标边缘建立时间、空间、颜色多通道梯度模型;然后,利用该模型获取目标边缘像素点的运动状态描述信息,实现背景边缘和运动物体边缘的分离;最后,将间断边缘像素点与其邻域点的运动状态相关联,以连接目标间断边缘,实现运动目标轮廓的提取,并将连接后的轮廓进行形态学处理以分割出目标。实验结果表明,与同类型算法相比,本算法在运动目标检测中具有的实时性、准确性和鲁棒性更好。
Abstract
Aiming at the problems that moving object detection in video sequence is easily interfered by environmental noise and the object contour is difficult to extract, this paper proposes a multi-moving object detection algorithm based on the improved model of edge multi-channel gradient. First, the Canny operator is used to obtain the edge information of the object in the video sequence, and a multi-channel gradient model of time, space and color is established on the object edge according to the constant characteristics of human visual color; Then the model is used to obtain the motion state description information of the object edge pixel and achieve the separation of the background edge and the edge of the moving object; Finally, the discontinuity edge pixels are associated with the motion state of their neighboring points to connect the discontinuity edges of the object, which achieve the complete extraction of the contour of the moving object; The connected contour is morphologically processed to segment the object. Experimental results show that, compared with similar algorithms, the algorithm has superior real-time performance, accuracy, and robustness in moving object detection.

1 引言

目标检测作为机器视觉领域的研究热点,在智能监控、智能交通、无人驾驶等方面具有极其重要的应用和发展前景。如何在目标检测过程中克服光照、异物、遮挡等环境噪声,提高检测效率,提取完整运动目标的轮廓,也成为这类问题的研究重点[1-2]

目前,主流的目标检测算法可分为基于经典模型和基于学习模型的检测算法,混合高斯法与视觉背景提取算法是基于经典模型的检测算法。Chen等[3]提出了一种在混合高斯改进模型中,利用码本和区间估计提高检测准确性的方法,一定程度上解决了前景像素移动缓慢造成的像素扰动和检测误判问题。但在光照、背景变化等噪声干扰情况下的鲁棒性较差,目标轮廓提取不完整,且无法满足实时性的要求。王旭等[4-6]提出了多种针对目标检测问题的视觉背景提取算法,改进后的算法可以有效抑制视觉背景提取算法的鬼影现象,提升算法的实时性。但这些算法依赖背景模型的更新,受环境噪声干扰较大,无法获取准确的目标轮廓。

YOLO(You only look once)网络是目前比较热门的一种基于学习模型的目标检测算法[7],相比区域卷积神经网络(RCNN)[8]、Fast-RCNN[9]算法在速度上得到了极大的提升,但对微小目标、尺度变化的目标,YOLO网络的检测率和泛化能力都较弱。针对该问题,Liu等[10]提出了一种基于YOLO网络改进的多尺度单步多框检测(SSD)网络,大幅提升了对小目标的检测性能。基于YOLO网络,人们还提出了YOLOv2[11]和YOLOv3[12]网络算法,在确保算法准确性的同时改进了算法整体的运算速度。近年来,生物视觉特性与机器视觉结合的目标检测算法逐渐受到了人们的关注。如受人类视觉感知系统启发的RFBNet(Receptive field block net)[13]算法利用Inception与空洞卷积模拟人类视觉的感受野,并将SSD网络与感受野相结合,相比YOLOv3网络算法,该算法的检测精度和运行效率均有较大提升。基于学习模型的目标检测算法虽然在检测性能方面有较大优势,但算法的网络泛化和实用性依赖大量训练数据集,且耗时耗力。

针对上述问题,本文在文献[ 14]中的多通道梯度模型(McGM)基础上,结合生物视觉特性,提出了一种边缘McGM(E-McGM),并将该模型用于多运动目标检测。针对多运动目标检测过程中出现的目标轮廓提取不完整问题,利用E-McGM设计一种运动目标间断边缘的连接方法。实验结果表明,相比其他算法,本算法在3个序列中的平均查全率、平均查准率和平均F-Measure均得到了一定的提高。

2 基于E-McGM的运动目标检测算法

文献[ 14]中的模型没有对图像信息进行筛选,算法需要计算大量的冗余信息,时间效率低且空间复杂度高。针对该问题,选取图像中具有代表性的边缘信息,并参考文献[ 14]中的模型,提出了一种基于E-McGM的多运动目标检测算法。

2.1 E-McGM的建立

生物学认为物体在人眼中的成像是该物体反射光能量在视觉单元中二维信号的反映。不同波长的反射光对应不同光谱能量值,通过光谱能量值可得到物体在视觉系统中对应的颜色信息[15]。由文献[ 15]中的视觉光学理论及图像学知识,得到图像边缘在图像I中各颜色通道的描述为

Sγ(λ0)=ΩE(λ)Gγ(λ;λ0,σ)dλ,γ(0,1,2),(1)

式中,λ为波长,Ω为可见光波长的范围,用均值为λ0、标准差为σ的高斯函数G(λ,λ0,σ)表示视觉传感器灵敏度,γG(λ,λ0,σ)的求导阶数。令λ0=520 nm,σ=55 nm,依据文献[ 16]提出的人类视觉彩色拮抗理论,将G(λ,λ0,σ)最高求导至二阶,用G0(λ,λ0,σ),G1(λ,λ0,σ)和G2(λ,λ0,σ)分别表示人类视觉的亮度、黄-蓝和红-绿拮抗通道的加权函数,S0,S1S2分别为对应物体边缘的亮度、黄-蓝和红-绿拮抗通道的光谱响应。物体表面反射光的能量分布E(λ)可表示为

E(λ)=e(λ)R(λ),(2)

式中,e(λ)为入射光的能量分布,R(λ)为物体表面光的反射系数。当物体运动时,R(λ)不发生变化,e(λ)变化比较缓慢,可认为短时间内的E(λ)为不变量。因此,Sγ(λ0)具有色彩恒常性,即对光照变化的鲁棒性较强。

S0(λ0)在λ0邻域做二阶泰勒展开,得到图像I中物体边缘的光谱描述为

Sλ0+s;E(λ),σ=S0λ0;E(λ),σ+sS1λ0;E(λ),σ+s22S2λ0;E(λ),σ+O(s3),(3)

式中,s为波长λ的偏移量,O(s3) 为泰勒公式的余项。将(3)式的光谱信息与图像I的物体边缘空间、时间信息结合,再次进行泰勒展开,可得到视觉皮层图像信息的E-McGM描述,即图像边缘像素P(x,y,t,λ)对应的E-McGM为

S(x+p,y+q,t+r,λ+s)=i=0ej=0fk=0gl=0hpiqjrksli!j!k!l!·(i+j+k+l)S(x,y,t,λ)xiyjtkλl,(x,yEt),(4)

式中,xy 分别为图像横轴、纵轴的坐标,Et为由Canny算子得到的第t帧边缘图像,(p,q,r,s)为(x,y,t,λ)的偏移参数,e,f,g,h为关于图像边缘像素P(x,y,t,λ)在泰勒展开中的最高阶数,实验取e=3,f=2,g=2,h=2。

2.2 基于E-McGM的运动目标边缘检测

合并(4)式中偏导阶数相同的项,构成向量k(x,y,t,λ),k在空间xy-时间t-光谱λ上的差分可反映边缘像素点P的运动变化趋势。视觉皮层对运动物体的感知过程可看作单帧图像中每个像素点在空间梯度上的变化,可表示为

A=D[k(x,y,t,λ)]=(X,Y,T,λ),(5)

式中,D为差分算子,X,Y,T,λ分别为向量kx,y,t,λ的差分值。物体运动过程中的描述参数为

ATAXXXYXTYXYYYTTXYTTTλXλYλTλλλ·Y+T·Yλ·T+T·TX·YX·Xλ·T+X·Tλ·X+X·Xλ·T+Y·Tλ·Y+Y·YX·YY·Yλ·X+T·Xλ·T+T·T(6)

生物学认为初级视觉皮层大部分的细胞具有方向选择性,即表征初级视觉皮层细胞会在m个运动方向θ中选择梯度变化最强响应作为物体的运动方向[17]。图像边缘点P(x,y,t,λ)在视频序列三维空间中的正交方向速度v(vx,vy)可表示为

vx=λ×T+X×Tλ×X+X×X,vy=λ×T+Y×Tλ×Y+Y×Y,(7)

将(7)式作为初速度建立速度基坐标系,通过旋转速度基坐标系可获得m个不同方向θ的速度响应,令图像边缘点的正速度为 s、逆速度为 s,则θ中任一个方向的运动可分为平行和垂直于基坐标的分速度,即 s=( s, s), s=( s, s)。结合(7)式和文献[ 17]得到速度 s与逆速度 sm个不同方向θ的旋转公式为

s=2mvx[1+(X·YX·X)2]-1s=122mλ·X+T·Xλ·T+T·Ts=2mvy[1+(X·YY·Y)2]-1s=122mλ·Y+T·Yλ·T+T·T(8)

像素点P的速率为

S2=s·cosθs·sinθs·cosθs·sinθs·ss·ss·ss·s(9)

像素点P的运动方向Θ可表示为

Θ=arctan(s+s)sinθ+(s+s)cosθ(s+s)cosθ+(s+s)sinθ(10)

由(9)式和(10)式可得到像素点P的速度描述,从而提取出第t帧视频图像的运动物体边缘 Emt

2.3 基于E-McGM的间断运动边缘连接

2.2小节获得的运动目标边缘图 Emt出现的边缘间断现象会影响运动目标的目标块获取。因此,基于E-McGM设计了一种融合运动信息的边缘间断连接方法,具体步骤如下。

1) 设动态像素点的标记w为1,静态像素点的标记w为0。初始化当前第tEmt得到的目标边缘像素点集合Pt= px1,y1t,px2,y2t,,pxc,yct中所有元素的w为1。

2) 在集合Pt中按顺序选取第n个动态边缘点 pxn,ynt,创建属于该点的动态数组 ξxn,ynt,将 pxn,ynt存入 ξxn,ynt,即 ξxn,ynt= ξ0,ξ0= pxn,ynt。令 ξxn,ynt中边缘点个数Xcount的初值为1,设 ξxn,ynt中包含元素点对应的速度均值为M( Sxn,ynt)、方向均值为M( θxn,ynt),ξ0的速度值和方向值作为M( Sxn,ynt)和M( θxn,ynt)的初值。

3) 对于数组 ξxn,ynt中的元素ξ0在Canny边缘图Et上以自身为中心建立一个3×3的邻域为eε,ε∈[0,7]。若邻域点eεEteεEmt,则判定该点是否为缺失动态边缘点的方法为

w=1,Seεt-M(Sxn,ynt)<Tsand Θeεt-M(θxn,ynt)<Tθ0,else,(11)

式中, Seεt为该点的速度, Θeεt为该点方向值,TsTθ分别为速度阈值和方向阈值,分别设为0.18和π/36。若w=1,则判定当前邻域点为动态边缘点并将其加入数组 ξxn,ynt和运动物体边缘图 Emt中,同时令Xcount=Xcount+1。

4) 更新M( Sxn,ynt)和M( θxn,ynt)的方法可表示为

M(Sxn,ynt)=i=1XcountSeεtXcount,M(θxn,ynt)=i=1XcountθeεtXcount(12)

pxn,yntξxn,ynt中移除,同时令Xcount=Xcount-1。若Xcount≠0,则从 ξxn,ynt中提取新的ξ0,返回步骤3);否则,令n=n+1。重复步骤2),直到集合Pt中所有元素提取完毕。运动目标间断边缘连接完成后,通过形态学膨胀和物体轮廓连通方法,得到每个运动物体的完整边缘轮廓。然后利用矩形描述符分割出运动目标块,得到单帧图像中运动物体的检测区域。在公共视频序列PES09-S2L1中测试本算法,结果如图1所示。其中,图1(a)为经过形态学处理后得到的检测目标,图1(b)为外接矩形框得到的目标块结果。

图 1. 目标检测的结果。 (a)形态学处理的结果; (b)目标块

Fig. 1. Result of object detection. (a) Result of morphological processing; (b) object block

下载图片 查看所有图片

3 实验结果分析与算法评估

本算法的实现与验证环境:操作系统为64位Ubuntu16.04、CPU处理器为Intel Core Xeon E5-2603、内存为16 GB的个人电脑,编程语言为C++和OpenCV库。

实验挑选CDnet2014数据集的blizzard和PETS2006视频序列以及visual tracker benchmark的David序列对本算法进行有效性验证。三个视频序列对应的参数如表1所示。将本算法与文献[ 18]、文献[ 19]以及文献[ 20]中的算法在上述数据集中进行对比。

表 1. 视频序列参数

Table 1. Parameter of the video sequence

NumberVideo sequenceFrameSize
1PETS20061200720×576
2blizzard7000720×480
3David770320×240

查看所有表

3.1 实验结果

首先在人流密集、天气恶劣、光照变化等场景下对不同算法进行多场景性能验证。视频序列1为室内地铁站人员流动场景,测试环境复杂,运动目标较多;视频序列2为室外下雪场景,在该恶劣天气下进行运动目标检测,会受到图像亮度灰暗、背景存在较多噪声和雪花轻微飘动的影响;视频序列3为从昏暗房间向明亮客厅移动的光照变化场景。图2为不同算法对3个不同场景视频序列的运动目标检测结果。

图 2. 不同算法的检测结果。 (a)原始图像; (b)文献[ 18]中的算法; (c)文献[ 19]中的算法; (d)文献[ 20]中的算法; (e)本算法

Fig. 2. Detection results of different algorithms. (a) Original image; (b) algorithm of Ref. [18]; (c) algorithm of Ref. [19]; (d) algorithm of Ref. [20]; (e) our algorithm

下载图片 查看所有图片

图2可以看出,文献[ 18]中的算法在序列1中的检测结果较好;在序列2中,检测结果存在空洞,原因是该算法采用显色体积作为特征,对区域间颜色差异敏感。序列中大幅的灰暗背景使目标某一小区域颜色与目标整体有差异时,该小区域会被误检为背景;在序列3中,对于光照变化不鲁棒,存在明显的目标空洞和背景残留现象。文献[ 19]中的算法在序列1和序列2中均取得较好的检测结果,但该算法实际上是结合时空信息的背景减法,无法完全克服光照变化带来的干扰,在序列3的检测结果中出现空洞现象。文献[ 20]中的算法融合动态梯度和静态梯度特征构建时空梯度特征,会将产生梯度信息的动态背景误判为目标。本算法在3个序列中均取得了较好的检测结果,检测目标边缘清晰,在背景中存在缓慢运动干扰噪声以及光照变化等场景下均可以取得稳定的检测结果,鲁棒性较强。但本算法对于序列1中位于地铁围栏另一侧的运动目标检测结果不是特别完整,原因是存在围栏遮挡,算法无法提取到被遮挡物体完整的边缘轮廓,从而影响该运动目标的最终检测结果。

3.2 实验结果性能分析

为了进一步量化各算法的检测性能,用查全率(R)、查准率(P)、F-Measure(XF_M)以及检测误差率 (XError_ratio)对检测结果进行量化。前三个指标值越大,表明对应算法的检测结果越好。

R=XTPXTP+XFNP=XTPXTP+XFPXF_M=2×R×PR+PXError_ratio=XFN+XFPXGT,(13)

式中,XTP为正确检测的前景目标像素点数,XFP为被错误检测为前景目标的背景像素点数,XFN为被错误检测为背景的前景目标像素点数,XGT为前景目标像素总数。本算法与对比算法在视频序列的性能如表2所示,其中,FPS为每秒检测帧数。

表 2. 不同算法的检测性能

Table 2. Detection performance of different algorithms

AlgorithmVideo1Video2Video3
R/%P/%XF_M/%FPS/frameR/%P/%XF_M/%FPS/frameR/%P/%XF_M/%FPS/frame
Ref.[18]87.390.688.9279.882.180.9376.970.573.614
Ref.[19]98.878.987.7171.585.878.0578.269.973.811
Ref. [20]77.885.781.6479.774.877.2770.573.872.113
Ours93.388.190.62687.483.585.43283.579.881.643

查看所有表

表2可以看出,文献[ 18]中的算法在序列1中能获得稳定的区域显色体积特征,检测效果较好,但在具有噪声的序列2和光照变化序列3中,性能出现明显下降;文献[ 19]中的算法通过结合目标的时间和空间信息降低目标漏检率,在序列1中取得较高的查准率,但在背景干扰较多的序列2和序列3上漏检数量较大;文献[ 20]中的算法在3个序列上的检测精度最低,原因是该算法将动态与静态梯度图进行融合,背景中存在的微运动物体和光照变化会对图像梯度产生影响,降低目标检测精度,增大算法的误检率。相比其他算法,本算法在序列1中虽没有取得最佳的查准率和查全率,但能有效地平衡漏检率和误检率,在背景复杂的序列2和序列3中均取得了较好的性能。在实时性方面,其他算法对每帧图像的处理时间较长,无法达到实时检测要求。在视频序列2上对不同算法的检测误差率进行对比,结果如图3所示。可以看出,文献[ 18]与文献[ 20]中的算法在检测过程中性能不稳定,检测误差率波动较大,原因是这两种算法不能克服恶劣天气的影响,检测结果有背景残留。相比其他算法,本算法具有明显优势,抗干扰能力较强,且性能稳定。

图 3. 不同算法的检测误差率

Fig. 3. Detection error rates of different algorithms

下载图片 查看所有图片

3.3 数据优化分析

在目标检测中,图像中许多像素点为无用背景点。而本算法只对目标边缘像素建立模型,大大减少了需要处理的像素点数,从而降低了算法的时间复杂度,提升了算法的运算速度。表3为E-McGM进行运动目标速度求解各阶段需要计算和存储的数据量,其中,N为视频总帧数,B为未处理的视频帧数,nx×ny为视频帧中的像素点总数,nCFnTFnSF分别为颜色滤波器、时间滤波器和空间滤波器个数,mθ为每个像素对应的m个响应角度。可以看出,nx×ny数量影响E-McGM所有阶段的数据计算与内存消耗,这表明通过提取图像边缘可以减少nx×ny的数量,从而减少运算的时间与空间消耗。

表 3. 各阶段计算和存储的数据量

Table 3. Amount of data calculated and store in each stage

Memory consuming and computational demanding stageData store
Establishment of the E-McGM(N-Bnx×ny×nCF×nTF×nSF×mθ
Computing ATA(N-Bnx×ny×mθ×6
Velocity responses in m directions around a point(N-Bnx×ny×mθ×4
Computing velocity magnitude and direction(N-Blnx×ny

查看所有表

4 结论

针对视频序列中运动目标检测易受环境噪声干扰、目标轮廓提取困难的问题,在McGM模型基础上提出了E-McGM,并利用所得的运动状态对运动目标轮廓实现完整提取。实验结果表明,相比其他算法,本算法在噪声干扰环境下的目标误检率和漏检率更低。通过结合E-MCGM的运动物体间断边缘连接方法,提升了运动目标检测的准确性和鲁棒性,且具有更优的时间复杂度。本算法虽然可以解决视频序列的缓慢运动目标检测问题,但当背景中运动扰动较大时,检测结果并不理想。因此,在大扰动背景环境中的目标检测问题是未来需要研究的重点。

参考文献

[1] 方岚, 于凤芹. 去除鬼影及阴影的视觉背景提取运动目标检测算法[J]. 激光与光电子学进展, 2019, 56(13): 131002.

    Fang L, Yu F Q. Moving object detection algorithm based on removed ghost and shadow visual background extractor[J]. Laser & Optoelectronics Progress, 2019, 56(13): 131002.

[2] 周兵, 李润鑫, 尚振宏, 等. 基于改进的Faster R-CNN目标检测算法[J]. 激光与光电子学进展, 2020, 57(10): 101009.

    Zhou B, Li R X, Shang Z H, et al. Object detection algorithm based on improved faster R-CNN[J]. Laser & Optoelectronics Progress, 2020, 57(10): 101009.

[3] Chen X R, Xi C L, Cao J H. Research on moving object detection based on improved mixture Gaussian model[J]. Optik, 2015, 126(20): 2256-2259.

[4] 王旭, 刘毅, 李国燕. 基于改进视觉背景提取算法的运动目标检测方法[J]. 激光与光电子学进展, 2019, 56(1): 011007.

    Wang X, Liu Y, Li G Y. Moving object detection algorithm based on improved visual background extractor algorithm[J]. Laser & Optoelectronics Progress, 2019, 56(1): 011007.

[5] Huynh-The T, Banos O, Lee S, et al. NIC: a robust background extraction algorithm for foreground detection in dynamic scenes[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(7): 1478-1490.

[6] 马永杰, 陈梦利, 刘培培, 等. ViBe算法鬼影抑制方法研究[J]. 激光与光电子学进展, 2020, 57(2): 021007.

    Ma Y J, Chen M L, Liu P P, et al. ViBe algorithm-based ghost suppression method[J]. Laser & Optoelectronics Progress, 2020, 57(2): 021007.

[7] RedmonJ, DivvalaS, GirshickR, et al.You only look once: unified, real-time object detection[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 779- 788.

[8] Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[9] GirshickR. Fast R-CNN[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 1440- 1448.

[10] LiuW, AnguelovD, ErhanD, et al. SSD: single shot MultiBox detector[M] ∥Leibe B, Matas J, Sebe N, et al. Computer Vision -ECCV 2016. Lecture Notes in Computer Science. Cham: Springer, 2016, 9905: 21- 37.

[11] RedmonJ, FarhadiA. YOLO9000: better, faster, stronger[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 6517- 6525.

[12] RedmonJ, FarhadiA. YOLOv3: an incremental improvement[EB/OL]. [2020-10-25].https:∥arxiv.org/abs/1804. 02767.

[13] Liu ST, HuangD, Wang YH. Receptive field block net for accurate and fast object detection[EB/OL]. [2020-10-25].https:∥arxiv.org/abs/1711. 07767.

[14] Liang X F. McOwan P W, Johnston A. Biologically inspired framework for spatial and spectral velocity estimations[J]. JOSA A, 2011, 28(4): 713-723.

[15] Golland P, Bruckstein A M. Motion from color[J]. Computer Vision and Image Understanding, 1997, 68(3): 346-362.

[16] MacLeod R B. Outlines of a theory of the light sense[J]. American Journal of Psychology, 1964, 80(1): 163.

[17] Johnston A. McOwan P W, Benton C P. Robust velocity computation from a biologically motivated model of motion perception[J]. Proceedings of the Royal Society of London. Series B: Biological Sciences, 1999, 266(1418): 509-518.

[18] Liu G H, Yang J Y. Exploiting color volume and color difference for salient region detection[J]. IEEE Transactions on Image Processing, 2019, 28(1): 6-16.

[19] Boulmerka A, Allili M S. Foreground segmentation in videos combining general Gaussian mixture modeling and spatial information[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(6): 1330-1345.

[20] Guo Y C, Li Z, Liu Y, et al. Video object extraction based on spatiotemporal consistency saliency detection[J]. IEEE Access, 2018, 6: 35171-35181.

陈婕妤, 奚峥皓, 卢俊鑫. 基于边缘多通道梯度模型的多运动目标检测[J]. 激光与光电子学进展, 2021, 58(4): 0415002. Jieyu Chen, Zhenghao Xi, Junxin Lu. Multi-Moving Object Detection Based on Edge Multi-Channel Gradient Model[J]. Laser & Optoelectronics Progress, 2021, 58(4): 0415002.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!