Please wait a minute...
空天防御  2022, Vol. 5 Issue (1): 94-101    
0
  环境构建与信息对抗技术 本期目录 | 过刊浏览 | 高级检索 |
基于强化学习的一对多雷达干扰资源分配策略研究
尚熙1, 杨革文2, 戴少怀2, 蒋伊琳1
1. 哈尔滨工程大学 信息与通信工程学院,黑龙江 哈尔滨 150001; 2.上海机电工程研究所,上海 201109
Research on Resource Allocation Strategy of One-to-Many Radar Jamming Based on Reinforcement Learning
SHANG Xi1, YANG Gewen2, DAI Shaohuai2, JIANG Yilin1
1. School of Information and Communication Engineering, Harbin Engineering University, Harbin 150001, Heilongjiang, China;2. Shanghai Electro-Mechanical Engineering Institute, Shanghai 201109, China
全文: PDF(1623 KB)  
输出: BibTeX | EndNote (RIS)      
摘要 针对干扰机一对多情形下的干扰突防问题,提出了一种基于强化学习的一对多干扰情形下的干扰资源分配方法,引入干扰辐射能量比和突防距离比作为评价指标,并对DQN(deep Q network)和Dueling-DQN算法引入动态调整的奖励值以增强算法的收敛能力。结合一对多干扰突防场景,对两种算法进行了验证,实验结果验证了两种算法的可行性及差异性,实现了对于干扰资源在干扰功率、时长、干扰样式及干扰雷达选取的资源分配能力,满足了一对多情形下的干扰资源实时、动态的分配需求。
服务
把本文推荐给朋友
加入引用管理器
E-mail Alert
RSS
作者相关文章
关键词 干扰资源分配强化学习干扰辐射能量最大突防距离动作分配    
Abstract:Aiming at the interference penetration of the jammer in the case of one-jammer to multi-radar, a reinforcement learning-based interference resource allocation method in the case of one-jammer to multi-radar interference is proposed. The interference radiation energy ratio and penetration distance ratio are introduced as evaluation indicators, and the dynamically adjusted reward values are used for DQN (deep Q network) and Dueling-DQN algorithms to enhance the convergence ability of the algorithm. By building a one-jammer to multi-radar interference penetration scenario, DQN and Dueling-DQN algorithms were verified, the experimental results verify the feasibility and difference of the two algorithms, and realize the resource allocation ability for interference resources in interference power, duration, interference pattern and interference radar selection, and meet the real-time and dynamic interference resource allocation requirement in the case of one-jammer to multi-radar.
Key wordsjamming resource allocation    reinforcement learning    jamming radiation energy    maximum penetration distance    action allocation
收稿日期: 2021-07-27      出版日期: 2022-03-25
ZTFLH:  TN974  
  TP181  
基金资助:上海航天科技创新基金(SAST2019-001)
通讯作者: 蒋伊琳(1980—),男,博士,副教授,主要研究方向为图像处理与电子对抗。     E-mail: shangxi@hrbeu.edu.cn
作者简介: 尚熙(1996—),男,硕士研究生,主要研究方向为雷达干扰资源调度。
引用本文:   
尚熙, 杨革文, 戴少怀, 蒋伊琳. 基于强化学习的一对多雷达干扰资源分配策略研究[J]. 空天防御, 2022, 5(1): 94-101.
SHANG Xi, YANG Gewen, DAI Shaohuai, JIANG Yilin. Research on Resource Allocation Strategy of One-to-Many Radar Jamming Based on Reinforcement Learning. Air & Space Defense, 2022, 5(1): 94-101.
链接本文:  
https://www.qk.sjtu.edu.cn/ktfy/CN/      或      https://www.qk.sjtu.edu.cn/ktfy/CN/Y2022/V5/I1/94

参考文献
[1] 王旭, 蔡远利, 张学成, 张荣良, 韩成龙. 基于分层强化学习的低过载比拦截制导律[J]. 空天防御, 2024, 7(1): 40-47.
[2] 郭建国, 胡冠杰, 许新鹏, 刘悦, 曹晋. 基于强化学习的多对多拦截目标分配方法[J]. 空天防御, 2024, 7(1): 24-31.
[3] 马驰, 张国群, 孙俊格, 吕广喆, 张涛. 基于深度强化学习的综合电子系统重构方法[J]. 空天防御, 2024, 7(1): 63-70.
[4] 李梦璇, 郭建国, 许新鹏, 沈昱恒. 基于近端策略优化的制导律设计[J]. 空天防御, 2023, 6(4): 51-57.
[5] 孙婕, 李子昊, 张书宇. 机器学习在化学合成及表征中的应用[J]. 上海交通大学学报, 2023, 57(10): 1231-1244.
[6] 李鹏, 阮晓钢, 朱晓庆, 柴洁, 任顶奇, 刘鹏飞. 基于深度强化学习的区域化视觉导航方法[J]. 上海交通大学学报, 2021, 55(5): 575-585.
[7] 何林坤, 张冉, 龚庆海. 基于强化学习的可回收运载火箭着陆制导[J]. 空天防御, 2021, 4(3): 33-40.
[8] 周来, 靳晓伟, 郑益凯. 基于深度强化学习的作战辅助决策研究[J]. 空天防御, 2018, 1(1): 31-35.
[9] 刘波,陈哨东,贺建良. 基于概率群集的多战机协同空战决策算法
[J]. 上海交通大学学报(自然版), 2011, 45(02): 257-0261.
沪ICP备15013849号-1
版权所有 © 2017《空天防御》编辑部
主管单位:中国航天科技集团有限公司 主办单位:上海机电工程研究所 上海交通大学出版社有限公司