基于神经网络的高角色散宽带介质超光栅的快速优化 下载: 1173次
1 引言
随着计算机计算力的发展,神经网络的计算速度有了显著的提升,人工智能再次迎来研究热潮。深度学习反向传播(BP)神经网络具有强大的数据处理能力,可通过学习数据之间的逻辑关系来完成复杂的任务,极大推动了计算机视觉、语音识别和图像处理等领域的发展[1-5]。同时,神经网络也逐步应用于光学元件的优化设计[6]。
超表面是一类紧凑型新颖光学元件,可通过对电磁波振幅、相位和偏振的精确控制来实现波前操控、偏振变换和全息成像等功能[7-8]。超表面的亚波长结构单元有很多结构参数,这表明结构的自由度很高,可为波束操控提供很大的空间,同时也增加了结构设计的复杂度。将神经网络用于超表面结构的优化设计可以提高优化速度,为多变量多目标的复杂问题寻找全局最优解提供一种高效的方法[9]。传统数值优化方法如梯度下降等容易陷入局域最优解,常常需要采用不同的初始解进行多次优化来寻找全局最优解[10],而另一些数值优化方法如遗传算法和粒子群优化算法[11]等虽然不依赖于初始解,但其收敛速度慢,迭代次数多。在优化过程中,每一步迭代都要采用时域有限差分法(FDTD)、有限元法 (FEM)和严格耦合波分析法(RCWA)等方法进行电磁仿真计算,当超表面面积较大且不具备周期性时,每一次电磁仿真都需要一定的时间和计算资源,这大大限制了优化的速度。而神经网络只需要一定数量的电磁仿真数据,无需求解麦克斯韦方程组即可预测出器件的光学性能或反向预测器件的结构,从而将优化设计的时间缩短多个数量级。
神经网络与超表面元器件设计的结合已取得了一定进展[12]。神经网络对超表面的优化可分为正向预测和反向设计[13]。正向预测是输入结构的几何参数,输出预测的效率和电磁场分布等光学响应。Qian等[14]利用神经网络提出一种隐形斗篷,可对直流偏置电压进行正向预测,进而快速地调节超表面内部每个元素的反射特性,实现了快速高效的自适应隐身。神经网络也被用于预测不同纳米结构的光谱[15]以及纳米波导的有效折射率[16]。
反向设计分为反向参数设计以及反向拓扑优化。反向参数设计是针对一个大致确定的结构,输入性能参数,输出结构的几何参数;反向拓扑优化是根据性能的需要,对结构进行拓扑生成。常见的反向设计包括利用对抗神经网络反向预测折射率分布[17],也可以通过训练深层神经网络进行纳米光子结构逆设计[18-20],利用卷积逆向生成等离子体超表面[21],或按照所需的圆二向色性谱,通过生成式对抗网络(GAN)对抗神经网络对手性器件进行拓扑优化设计,逆向生成器件拓扑结构[22-24]。针对一个含有有限可变参数的超表面结构,正向设计就可以对光学性能进行较好的预测。而当超表面需要实现多目标的复杂功能时,基于神经网络的反向拓扑优化可提高设计自由度,增强模型的多样性。
本文构建了一种深度学习BP神经网络,采用正向预测的方法实现了太赫兹波段宽带宽、高效率和高角色散的衍射光栅的快速优化设计,并利用全连接BP神经网络,对衍射物理过程进行了泛化学习,以神经网络表征复杂的数值计算过程。该神经网络可准确地预测各种光栅结构参数下的衍射光谱,并最终得到了衍射效率大于80%、带宽为19.2%的太赫兹超光栅, 其在161 GHz处的峰值衍射效率为95.7%,角色散为43.61(°)/mm。相比于基于电磁仿真的遍历搜索方法,该方法的优化速度提高了一万倍。
2 基于神经网络的超光栅衍射光谱预测
2.1 物理问题及数据集的制作
衍射光栅可以控制波束的传播方向,其衍射方向决定于光栅方程:
式中:λ为波长;Λ 为光栅周期;k'为衍射级次;θi为入射角度;θk' 为第k'级衍射角度。光栅的角色散率表征衍射角随波长的变化率,可表示为
由于其角色散特性,衍射光栅被广泛应用于光谱分析和脉冲整形等。对于刻线密度为300 lp/mm、闪耀角为17.5°的可见光透射式光栅(THORLABS GT13-03),其衍射效率峰值约为70%,带宽(效率大于70%)约为22.2%,角色散约为0.0174 (°)/nm。为了得到更大的角色散,往往需要减小光栅周期,牺牲衍射效率和带宽。关于太赫兹波段衍射光栅的研究较少,发展太赫兹衍射光栅对于太赫兹波束方向的控制以及太赫兹光谱分析具有重要意义。因此本文以实现太赫兹波段的高效率、宽频带、高角色散的衍射光栅为目标,利用全连接BP神经网络实现该器件结构的快速优化。
衍射光栅的结构及功能示意图如
图 1. 超光栅结构示意图。(a)结构及功能;(b)结构参数
Fig. 1. Structural diagram of metagrating. (a) Structure and function; (b) structural parameters
为了找到一阶衍射效率最高、带宽最宽、角色散较大的光栅结构,优化流程主要包含
在光栅的5个结构参数中,考虑到加工精度,宽度W1、W2的变化范围设置为0.30~2.28 mm,高度 H1、H2、Hsub的变化范围为0.5~6.0 mm。如果每个参数以0.1 mm的步长进行遍历,共有70246400种可能的情况。如果直接利用RCWA进行计算,时间过长。因此采用可取范围内参数随机生成的方法,随机生成5000组数据,并且利用RCWA计算其在130~180 GHz区间内的150个频点的一阶衍射效率。生成了一个5000×155的二维数据集,数据中每一行代
图 2. 基于深度学习神经网络的光栅优化流程图
Fig. 2. Flow chart of grating optimization based on deep learning neural network
2.2 训练神经网络,保存网络模型
通过使用全连接的神经网络对衍射强度进行预测,输入5个结构参数,分别标为x1,x2,x3,x4,x5,经过7个隐藏层,第k个隐藏层的第i个神经元的数值zki由前层元素的权重乘积与偏置之和决定:
式中:w(k-1)i为第(k-1)个隐藏层的第i个神经元的权重;b(k-1)i为第(k-1)个隐藏层的第i个神经元偏置系数;m为神经元个数。最终输出层输出的是130~180 GHz波段范围内150个等间隔频点的衍射效率。实验环境为型号为i9-9900k的中央处理器(CPU),型号为NVIDIA-RTX2080TI的图形处理器(GPU),内部存储器为48 GB。
目标函数Lloss为各频点衍射效率与RCWA计算的衍射效率的均方误差(MSE)总和,即
式中:m为当前光栅结构的标号;M为预测的结构总数;N为频点总数;
式中:n为当前预测频点的标号;Gφ代表整个神经网络的计算过程。训练过程使用Adam梯度下降算法[26]:
式中:gw为Lloss的梯度;w为神经元权重。适当设置学习率α,然后不断更新神经元权重w:
式中:Adam(·)为Adam自适应梯度下降函数;β1,β2为Adam梯度下降算法中的一阶、二阶梯度指数衰减率。优化目标经过反向传播[27]使Lloss的计算结果最小,即预测值趋近RCWA计算值,获得最佳权重参数w*:
学习率α的初始值设置为0.001,β1和β2用于控制一阶梯度和二阶梯度,为了使梯度方向不变时维度上的更新速度变快及梯度方向有所改变时维度上的更新速度变慢,将β1和β2分别设置为0.9和0.99[26]。设置相应的批次大小(ba)以及训练周期(ep)。为了提高训练速度,增大训练的每批次数据量,选取ba为2500;为了使训练更加充分,选取较大的训练周期,ep设置为1000。训练过程大约为147 s,训练时间主要由训练周期以及批次大小决定,ep 越大,ba越小,训练时间越长,反之则用时更短。
同时采用指数衰减调整学习率的方法[28]来获得更小的Lloss值。具体设置A为梯度下降学习率的变化周期,衰减因子底数设置为0.1,每隔A个周期学习率变为原来的1/10。A对Lloss值收敛效果的影响如
图 4.
(b)为A=300的训练过程中Lloss值的变化曲线图,实线为训练过程的Lloss值,虚线为测试过程的Lloss值。模型在经过200个周期后Lloss值表现为上下波动;在300个周期后,减小学习率,Lloss值进一步减小,模型逐渐收敛到最优点,最终保存训练Lloss值为0.00095,测试Lloss值为0.00160的预测模型。
Fig. 4.
3 神经网络预测及最优结果
对可变参数范围内以0.1 mm为步长的所有可能的光栅结构参数组合进行遍历,加载训练好的神经网络模型,神经网络经过3037 s的计算后得到70246400组150个频点的衍射光谱预测值。通过同一台计算机的单线程运算方式统计两种方法的耗时。RCWA方法完成同样的计算量需要耗时423 d。在Matlab中利用此神经网络预测可以快速获取光栅的衍射光谱,比RCWA的计算速度提高了约一万倍。选取部分预测结果与RCWA计算结果进行对比,如
图 4.
(b)为A=300的训练过程中Lloss值的变化曲线图,实线为训练过程的Lloss值,虚线为测试过程的Lloss值。模型在经过200个周期后Lloss值表现为上下波动;在300个周期后,减小学习率,Lloss值进一步减小,模型逐渐收敛到最优点,最终保存训练Lloss值为0.00095,测试Lloss值为0.00160的预测模型。
Fig. 4.
表 1. 远场衍射角度和强度分布
Table 1. Far field diffraction angle and intensity distributions
|
图 5. 不同条件下预测的超光栅衍射光谱与实际衍射光谱。(a) W1=2.23 mm,W2=1.61 mm,H1=5.21 mm,H2=0.64 mm,Hsub=1.82 mm;(b) W1=1.94 mm,W2=1.70 mm,H1=2.09 mm,H2=1.20 mm,Hsub=3.07 mm;(c) W1=1.51 mm,W2=0.80 mm,H1=1.90 mm,H2=4.83 mm,Hsub=4.79 mm;(d) W1
Fig. 5. Predicted diffraction spectra and actual diffraction spectra of metagratings under different conditions. (a) W1=2.23 mm, W2=1.61 mm, H1=5.21 mm, H2=0.64 mm, Hsub=1.82 mm;(b) W1=1.94 mm, W2=1.70 mm, H1=2.09 mm, H2=1.20 mm, Hsub=3.07 mm;(c) W1=1.51 mm, W2=0.80 mm, H1=
由
为了选取衍射效率最高、带宽最宽的光栅,对衍射效率高于80%、宽度大于60个频点(20 GHz)的波段进行筛选,得到的最佳光栅结构参数W1,W2,H1,Hsub,H2依次为1.03 mm,0.41 mm,1.92 mm,2.79 mm,2.9 mm。
图 6. 基于神经网络筛选出的最优光栅的衍射光谱
Fig. 6. Diffraction spectrum of optimal metagrating screened based on neural network
在衍射效率大于80%的频率范围内,对应的衍射角变化范围为51°至70.4°,如
图 7. 光栅的衍射特性。(a)频率与衍射角度的关系;(b)衍射角与衍射效率的关系
Fig. 7. Diffraction characteristics of gratings. (a) Relationship between frequency and diffraction angle; (b) relationship between diffraction angle and diffraction efficiency
当然,该光栅结构也可以采用梯度下降等数值优化方法进行优化设计,但是该方法依赖参数的初始位置,容易陷入局部最优。使用深度网络学习进行预测可以避免局部最优,在训练出可靠的模型之后,进行遍历预测,对遍历结果进行筛选,找到全局最优解。同时,当结构更为复杂、涉及参数更多时,直接数值优化的时间会呈指数增加,但是神经网络预测时间变化不大。
图 8. 不同频率处超光栅的近场分布。(a) 139.7 GHz;(b) 169.3 GHz
Fig. 8. Near-field distributions of metagrating at different frequencies. (a) 139.7 GHz; (b) 169.3 GHz
4 结论
利用深度学习神经网络与传统数值计算相结合的方法,对太赫兹介质超光栅进行了快速优化设计。通过传统数值计算获得了部分超光栅结构的衍射光谱,建立数据集,训练出神经网络的最佳模型。该方法可以对各种光栅结构的衍射光谱进行准确预测,进而快速遍历并筛选出最佳性能的光栅结构,相比传统的遍历计算方法速度提高了一万倍,证明了深度学习神经网络在超表面和超光栅结构设计中的准确性和高效性。最终筛选的介质光栅峰值衍射效率为95.7%,在139.7~169.3 GHz带宽范围内衍射效率大于80%,且角色散大,当波长变化10%时,衍射角度偏转9.21°。同时该设计可通过3D打印快速加工制备,在太赫兹波段的光谱分析等应用中具有重要意义。
[1] GravesA, FernándezS, GomezF, et al.Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks[C]∥Proceedings of the 23rd International Conference on Machine Learning, June 25-29, 2006, Pittsburgh, Pennsylvania. New York: ACM Press, 2006: 369- 376.
[2] DevlinJ, Chang MW, LeeK, et al. ( 2019-05-24)[2020-08-13]. https:∥arxiv.org/pdf/1412.6980v8.pdf.
[3] He K M, Gkioxari G, Dollar P, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 386-397.
[4] 马红强, 马时平, 许悦雷, 等. 基于深度卷积神经网络的低照度图像增强[J]. 光学学报, 2019, 39(2): 0210004.
[5] 吴磊, 吕国强, 薛治天, 等. 基于多尺度递归网络的图像超分辨率重建[J]. 光学学报, 2019, 39(6): 0610001.
[6] Campbell S D, Sell D, Jenkins R P, et al. Review of numerical optimization techniques for meta-device design[J]. Optical Materials Express, 2019, 9(4): 1842-1863.
[7] 余慕欣, 周文超, 周松, 等. 太赫兹V形错位超表面异常折射振幅调控研究[J]. 光学学报, 2018, 38(3): 0318001.
[8] 刘山峰, 袁沭娟, 孙钰淇, 等. 亚波长光栅负折射透镜的柱矢量光束聚焦特性[J]. 光学学报, 2019, 39(11): 1105001.
[9] Zhang S. AI empowered metasurfaces[J]. Light: Science & Applications, 2020, 9: 94.
[10] Dong X P, Cheng J R, Fan F, et al. Low-index second-order metagratings for large-angle anomalous reflection[J]. Optics Letters, 2019, 44(4): 939-942.
[11] 朱春霖, 焦庆斌, 谭鑫, 等. 应用于亚波长角向偏振金属光栅设计的快速收敛粒子群算法优化[J]. 光学学报, 2019, 39(7): 0705002.
[12] Yao K, Unni R, Zheng Y B. Intelligent nanophotonics: merging photonics and artificial intelligence at the nanoscale[J]. Nanophotonics, 2019, 8(3): 339-366.
[13] He J, He C, Zheng C, et al. Plasmonic nanoparticle simulations and inverse design using machine learning[J]. Nanoscale, 2019, 11(37): 17444-17459.
[14] Qian C, Zheng B, Shen Y C, et al. Deep-learning-enabled self-adaptive microwave cloak without human intervention[J]. Nature Photonics, 2020, 14(6): 383-390.
[15] Li X Z, Shu J, Gu W H, et al. Deep neural network for plasmonic sensor modeling[J]. Optical Materials Express, 2019, 9(9): 3857-3862.
[16] Chugh S, Ghosh S, Gulistan A, et al. Machine learning regression approach to the nanophotonic waveguide analyses[J]. Journal of Lightwave Technology, 2019, 37(24): 6080-6089.
[17] Jiang J Q, Fan J A. Global optimization of dielectric metasurfaces using a physics-driven neural network[J]. Nano Letters, 2019, 19(8): 5366-5372.
[18] PeurifoyJ, Shen YC, YangY, et al. Nanophotonic inverse design using artificial neural network[C]∥Frontiers in Optics 2017, September 18-21, 2017, Washington, D.C., United States. Washington, D.C.: OSA, 2017: FTh4A. 4.
[19] MalkielI, MrejenM, NaglerA, et al. Deep learning for the design of nano-photonic structures[C]∥2018 IEEE International Conference on Computational Photography, May 4-6, 2018, Pittsburgh, PA, USA. New York: IEEE, 2018: 17806131.
[20] Liu D J, Tan Y X, Khoram E, et al. Training deep neural networks for the inverse design of nanophotonic structures[J]. ACS Photonics, 2018, 5(4): 1365-1369.
[21] Lin R H, Zhai Y F, Xiong C X, et al. Inverse design of plasmonic metasurfaces by convolutional neural network[J]. Optics Letters, 2020, 45(6): 1362-1365.
[22] Ma W, Cheng F, Liu Y M. Deep-learning-enabled on-demand design of chiral metamaterials[J]. ACS Nano, 2018, 12(6): 6326-6334.
[23] Jiang J Q, Sell D, Hoyer S, et al. Free-form diffractive metagrating design based on generative adversarial networks[J]. ACS Nano, 2019, 13(8): 8872-8878.
[24] Liu Z C, Zhu D Y, Rodrigues S P, et al. Generative model for the inverse design of metasurfaces[J]. Nano Letters, 2018, 18(10): 6570-6576.
[25] Dong X P, Cheng J R, Fan F, et al. Extremely large-angle beam deflection based on low-index sparse dielectric metagratings[J]. Journal of Physics D: Applied Physics, 2020, 53(24): 245101.
[26] Kingma DP, Ba J. Adam: a method for stochastic optimization[EB/OL]. ( 2017-01-30)[2020-08-13]. https:∥arxiv.org/pdf/1412.6980v8.pdf.
[27] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536.
[28] 冯宇旭, 李裕梅. 深度学习优化器方法及学习率衰减方式综述[J]. 数据挖掘, 2018, 8(4): 186-200.
Feng Y X, Li Y M. An overview of deep learning optimization methods and learning rate attenuation methods[J]. Hans Journal of Data Mining, 2018, 8(4): 186-200.
李润泽, 董希谱, 程洁嵘, 常胜江. 基于神经网络的高角色散宽带介质超光栅的快速优化[J]. 光学学报, 2020, 40(23): 2305001. Runze Li, Xipu Dong, Jierong Cheng, Shengjiang Chang. Fast Optimization of High-Angular-Dispersion Wideband Dielectric Metagratings Based on Neural Networks[J]. Acta Optica Sinica, 2020, 40(23): 2305001.