作者单位
摘要
空军工程大学空管领航学院,西安 710000
针对无人机空战对抗自主机动决策问题, 设计了侧向机动决策算法。通过加入启发式因子的方式和双Q表交替学习的机制, 弥补了传统Q-Learning算法学习速度慢、无效学习多的不足。通过路径规划仿真和数据的对比, 验证了改进Q-Learning算法具有更好的稳定性和求解能力。设计了动态的栅格规划环境, 能够使无人机根据变化的空战态势自适应调整栅格尺寸大小, 且对求解的速率不产生影响。基于Q-Learning算法, 构建了无人机空战对抗侧向机动决策模型, 并通过**平台调换的方式验证了改进Q-Learning算法能显著提升无人机空战胜负比。
无人机 空战 机动决策 动态栅格环境 路径规划 双Q-Learning学习表算法 UAV air combat maneuver decision-making dynamic grid environment path planning double Q-Learning table algorithm 
电光与控制
2023, 30(5): 16
作者单位
摘要
1 南京航空航天大学, 南京 210000
2 国网辽宁省电力有限公司盘锦供电公司, 辽宁 盘锦 124000
3 成都信息工程大学, 成都 610000
基于无人机和目标之间的态势,研究不平衡目标任务分配建模和求解问题。首先, 分析空战战场下无人机和目标之间的态势, 提出一种某时刻的态势评估方法, 建立多无人机不平衡目标分配模型; 然后, 用匈牙利遗传算法的目标分配算法求解该模型; 最后, 构建仿真算例进行仿真实验。仿真结果验证了所提算法的有效性, 同时也表明了匈牙利遗传算法能够提升模型的求解效率。
空战 无人机 目标分配 态势评估方法 匈牙利算法 遗传算法 air combat UAV target assignment situational assessment method Hungarian algorithm genetic algorithm 
电光与控制
2023, 30(5): 6
作者单位
摘要
1 光电控制技术重点实验室, 河南 洛阳 471000
2 中国航空工业集团公司洛阳电光设备研究所, 河南 洛阳 471000
3 空装驻洛阳地区第二军事代表室, 河南 洛阳 471000
针对无人机近距空战的自主决策问题, 提出了一种基于近端策略优化(PPO)算法的无人机自主引导方法。针对敌我距离、角度、速度以及任务约束等信息重塑奖励, 建立了无人机三自由度模型, 在速度坐标系上构建强化学习的状态和动作, 分别对结合了全连接神经网络的PPO算法(标准PPO算法)和长短时记忆网络的PPO算法(改进PPO算法)模型进行了仿真训练。根据训练的结果可以证明, 相比于标准PPO算法, 所提的改进PPO算法能够更有效地处理与时间序列高度相关的无人机自主引导任务。
近距空战 近端策略优化 自主引导 长短时记忆网络 close air combat Proximal Policy Optimization(PPO) autonomous guidance long short-term memory network 
电光与控制
2023, 30(1): 8
作者单位
摘要
1 空军工程大学,a.航空工程学院
2 空军工程大学,b.研究生院, 西安 710000
3 中国人民解放军93131部队, 北京 100000
4 中国人民解放军93137部队, 北京 100000
空战对抗过程中的目标状态数据呈现时序性、多维性等特征, 为进一步提升目标意图识别的准确率, 提出了一种基于改进注意力机制的长短期记忆网络(LSTM)目标识别方法, 将空战可能出现的目标意图识别当成一个多分类问题处理。该方法首先通过目标实时的状态数据, 生成特征序列; 接着采用注意力机制提升目标的特征学习能力, 增强空战过程中的主要目标状态特征表示, 得到具有权值分配的特征向量; 最后利用LSTM网络对目标特征向量进行训练, 通过softmax层实现目标意图的识别。仿真实验表明, 该方法利用注意力机制有效增强目标的特征学习, 进一步提升了LSTM网络的识别精度, 具有一定的科学性和有效性。
空战 目标意图识别 注意力机制 LSTM网络 权值分配 air combat target intention recognition attention mechanism LSTM network weight allocation 
电光与控制
2023, 30(3): 1
作者单位
摘要
南京航空航天大学自动化学院, 南京 211000
基于对局迭代对多无人机协同空战博弈决策问题进行了研究。首先, 根据敌我双方作战态势和效能参数信息, 利用矩阵对策法建立敌我双方对抗支付博弈模型, 得到支付矩阵;然后, 根据混合策略纳什均衡的定义及其推导过程给出了使用对局迭代求解空战博弈混合策略纳什均衡的方法与求解步骤;最后, 通过仿真实例验证了该方法的可行性及有效性, 为解决多无人机空战策略问题提供了有价值的参考。
多无人机协同 空战 纳什均衡 矩阵对策法 对局迭代 multi-UAV cooperation air combat Nash equilibrium matrix game method game iteration 
电光与控制
2022, 29(2): 1
作者单位
摘要
南京航空航天大学自动化学院, 南京 211106
基于深度强化学习的连续状态空间无人机隐蔽接敌问题, 提出了基于马尔可夫决策过程的隐蔽接敌双深度Q网络(DDQN)方法。利用DDQN生成目标值函数的方法解决了传统DQN的过拟合问题; 采用按优先级随机抽样的方法获取训练样本, 加速了神经网络的训练速度; 设定贪婪系数按照指数下降的方法, 解决了传统强化学习的“探索利用窘境”; 在势函数奖赏函数设计中引入角度因子, 使其更加符合实际作战情况。仿真实验结果表明, DDQN具有较好的收敛性, 能有效生成隐蔽接敌策略。
隐蔽接敌策略 空战决策 马尔可夫决策过程 双神经网络结构 DDQN算法 stealthy engagement maneuvering strategy air combat decision-making Markov decision process double neural network structure DDQN algorithm 
电光与控制
2020, 27(7): 52
作者单位
摘要
1 空军工程大学航空工程学院,西安 710038
2 中国人民解放军95974部队,河北 沧州 061000
针对传统态势评估方法只考虑当前时刻静止态势, 难以对整个空战态势情况进行评估和不具有预见性的局限, 提出了一种基于改进MGM(1,N)轨迹预测的态势评估方法。首先, 根据 MGM(1,N)预测模型难以描述变量间线性关系的不足, 建立了基于背景值优化的改进 MGM(1,N)预测模型; 然后建立了基于非参量法的空战态势优势模型, 用来定量描述各空战态势影响因素; 利用灰色关联度计算各指标权重, 考虑并建立了多时刻时序权重的计算方法。通过对实际空战数据进行仿真, 改进方法的预测精度好于传统MGM(1,N)方法, 态势评估结果不仅能够准确反映战场态势, 而且能够有效反映空战态势的变化趋势, 具备良好的预见性。
空战 态势评估 轨迹预测 背景值优化 优势函数 灰色关联度 air combat situation assessment trajectory prediction background value optimization dominant function grey correlation degree 
电光与控制
2020, 27(11): 39
作者单位
摘要
中国航空工业集团公司西安飞行自动控制研究所, 西安 710065
针对传统导弹攻击区(MAE)计算方法实时性不足、针对性差, 难以为瞬息万变的空战态势提供决策依据等问题, 提出一种将导弹攻击区在线与离线计算结合的空战战术决策方法:离线计算解耦分析敌我两机对攻击区影响, 并以此为基础进行几何学建模; 在线计算利用两机角度信息和攻击区离线模型, 进行空战战场态势的实时定量评估, 生成战术策略。通过仿真实验, 证明了所提方法产生的战术策略能够显著提高作战优势, 优于传统正对目标发射导弹的策略。
导弹攻击区 空战态势 态势评估 战术决策 missile attack envelop air combat situation situation assessment tactical decision-making 
电光与控制
2020, 27(10): 8
作者单位
摘要
1 西京学院机械工程学院, 西安 710123
2 空军工程大学航空工程学院, 西安 710038
提出了一种综合考虑能力威胁、态势威胁和空战意图威胁的超视距空战目标威胁评估新方法。首先, 在能力威胁模型中加入了先敌发射能力威胁和超视距导弹攻击威胁模型; 其次, 针对态势威胁以态势有效性、制导有效性进行修正, 给出一种新的态势威胁计算方法; 然后, 基于隐马尔可夫模型(HMM)实现目标的机动辨识和态势预测, 在此基础上提出了意图威胁建模方法;最后,对综合威胁评估模型进行了仿真, 验证了所提方法在超视距目标威胁评估问题中的有效性。
威胁评估 机动辨识 隐马尔可夫模型 态势预测 空战 态势评估 threat assessment maneuvering recognition hidden Markov model situation prediction air combat situation assessment 
电光与控制
2020, 27(3): 8
作者单位
摘要
西北工业大学, 西安 710086
在无人机空中格斗过程中, 由于无人机自身状态以及空战态势, 敌我双方机动动作及行为策略的选择具有极强的不确定性。针对这个问题,将强化学习方法引入无人机空中格斗过程, 建立无人机机动模型及动作集; 将空战态势评估函数作为强化学习中的信号函数; 采用概率神经网络(PNN)作为对敌机动预测单元; 在敌我双方战场信息完全感知条件下, 该算法能够不断学习,使无人机通过与环境的交互来掌握其最佳机动行为策略, 实现无人机的一对一空中对抗。
无人机 空中格斗 机动预测 态势评估 强化学习 概率神经网络 UCAV air combat maneuvering model situation assessment reinforcement learning probabilisite neural network 
电光与控制
2019, 26(2): 5

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!