说明:收录全网最新的团体标准 提供单次或批量下载
(19)国家知识产权局 (12)发明 专利 (10)授权公告 号 (45)授权公告日 (21)申请 号 202110511422.5 (22)申请日 2021.05.11 (65)同一申请的已公布的文献号 申请公布号 CN 113177264 A (43)申请公布日 2021.07.27 (73)专利权人 北京邮电大 学 地址 100876 北京市海淀区西土城路10号 (72)发明人 程渤 赵帅 杨芳芳 陈俊亮  (74)专利代理 机构 北京路浩知识产权代理有限 公司 11002 专利代理师 郭亮 (51)Int.Cl. G06F 30/15(2020.01) G06F 30/27(2020.01) G06V 20/10(2022.01)G06V 10/774(2022.01) G06V 10/82(2022.01) G06K 9/62(2022.01) G06N 3/08(2006.01) G06F 111/08(2020.01) (56)对比文件 CN 105205226 A,2015.12.3 0 CN 109948722 A,2019.0 6.28 CN 111860640 A,2020.10.3 0 CN 112699717 A,2021.04.23 KR 10201697 7 B1,2019.09.02 CN 10967041 1 A,2019.04.23 宋珂慧等.基 于生成式对抗网络的结构化数 据表生成模型. 《计算机 研究与发展》 .2019,第5 6 卷(第9期),全 文. 审查员 邢雅 (54)发明名称 基于生成对抗网络的海域目标物多维数据 仿真方法及系统 (57)摘要 本发明提供一种基于生成对抗网络的海域 目标物多维数据仿真方法及系统, 该方法包括: 获取海域目标物的目标航迹空间数据; 将目标航 迹空间数据输入到训练好的航迹图像数据生成 模型中, 输出得到海域目标物的航迹图像数据, 其中, 训练好的航迹图像数据生成模 型是由样本 航迹空间数据和样本航迹空间数据对应的样本 航迹灰度图像数据, 对生 成对抗网络进行训练得 到的; 根据航迹图像数据、 预设仿真时段和船舶 自动识别系统静态属性历史数据, 仿真得到海域 目标物多维数据。 本发明通过利用少量的海域目 标物航迹样 本数据, 基于生 成对抗网络生成目标 物航迹信息, 并用于模拟海域目标物的行为, 综 合仿真出多种传感器下的海域目标物多维仿真 数据。 权利要求书3页 说明书14页 附图6页 CN 113177264 B 2022.06.24 CN 113177264 B 1.一种基于生成对抗网络的海域目标物多维数据仿真方法, 其特 征在于, 包括: 获取海域目标物的目标航迹空间数据; 将所述目标航迹空间数据输入到训练好的航迹图像数据生成模型中, 输出得到所述海 域目标物的航迹图像数据, 其中, 所述训练好的航迹图像数据生成模型是 由样本航迹空间 数据和所述样本航迹空间数据对应的样本航迹灰度图像数据, 对生成对抗网络进 行训练得 到的; 根据所述航迹 图像数据、 预设仿真时段和船舶 自动识别系统静态属性历史数据, 仿真 得到海域目标物多维数据; 所述训练好的航迹图像数据生成模型通过以下步骤训练得到: 获取样本航迹空间数据和所述样本航迹空间数据对应的样本航迹灰度图像数据, 并通 过栅格化方法, 对所述样本航迹空间数据进行转 化, 得到航迹三维图像矩阵; 根据所述航迹三维图像矩阵, 对生成器网络进行训练, 得到样本航迹灰度图像预测数 据; 根据所述样本航迹灰度图像数据和所述样本航迹灰度图像预测数据, 对判别器网络进 行训练, 若训练结果满足预设条件, 得到训练好的航迹图像数据生成模型; 其中, 在所述生 成器网络和所述判别器网络构成的生成对抗网络中, 设置有对随机排序后的样本进行标 记, 并通过独热编码对标记后样本进行表示的约束条件; 所述海域目标物多维数据包括: 船舶自动识别系统仿真数据、 声呐仿真数据、 雷达仿真 数据、 光电图像合成数据和异常事 件模拟; 所述根据所述航迹 图像数据、 预设仿真时段和船舶 自动识别系统静态属性历史数据, 仿真得到海域目标物多维数据, 包括: 获取所述航迹图像数据在预设仿真时段中每个时刻的航迹经纬度点数据, 并通过插值 操作, 根据所述 航迹经纬度点数据, 得到对应的时间戳数据; 根据所述时间戳数据, 生成船舶 自动识别系统动态仿真数据, 并根据所述船舶 自动识 别系统动态仿 真数据和船舶自动识别系统静态属性历史数据, 生成船舶自动识别系统静态 仿真数据, 以根据所述船舶自动识别系统动态仿真数据和所述船舶自动识别系统静态仿真 数据, 得到船舶自动识别系统仿真数据; 根据声呐设备的探测频率和探测截面正方向角度, 基于所述船舶自动识别系统动态仿 真数据, 生成海域水 下目标物的声呐仿真数据; 根据雷达设备的扫描角度范围和扫描频率, 基于所述船舶自动识别系统动态仿真数 据, 生成海域目标物的雷达 仿真数据; 基于图像测距技术, 对所述航迹 图像数据进行距离测量标记; 根据距离测量标记后的 航迹图像数据和光电拍摄设备 的拍摄频率, 获取目标航迹经纬度点数据, 并根据所述 目标 航迹经纬度点数据, 获取海域目标物与光电拍摄设备之间的拍摄距离; 根据所述拍摄距离, 获取目标航迹图像数据, 并对所述目标航迹图像数据 添加时间戳, 得到海域目标物的光电图像合成数据; 基于海域目标物 的类型和运动过程进行异常事件模拟, 并计算异常事件发生概率, 若 所述异常事件发生概率满足预设阈值, 则对所述船舶自动识别系统仿真数据、 所述声呐仿 真数据、 所述雷达仿真数据和所述光电图像合成数据进行修改, 以得到海域 目标物的异常权 利 要 求 书 1/3 页 2 CN 113177264 B 2事件仿真数据。 2.根据权利要求1所述的基于生成对抗网络的海域目标物多维数据仿真方法, 其特征 在于, 在所述获取样本航迹空间数据和所述样本航迹空间数据对应的样本航迹灰度图像数 据之后, 所述方法还 包括: 根据预设海域沙盒范围, 对样本航迹空间数据进行 过滤处理; 按照预设时间段, 对过滤处理后的样本轨迹空间数据进行切片, 以通过栅格化方法对 切片后的样本航迹空间数据进行转 化, 得到航迹三维图像矩阵。 3.一种基于生成对抗网络的海域目标物多维数据仿真系统, 其特 征在于, 包括: 航迹空间数据采集模块, 用于获取海域目标物的目标航迹空间数据; 航迹数据生成模块, 用于将所述目标航迹空间数据输入到训练好的航迹图像数据生成 模型中, 输出得到所述海域目标物的航迹图像数据, 其中, 所述训练好的航迹图像数据生成 模型是由样本航迹空间数据和所述样本航迹空间数据对应的样本航迹灰度图像数据, 对生 成对抗网络进行训练得到的; 多维数据仿真模块, 用于根据所述航迹 图像数据、 预设仿真时段和船舶 自动识别系统 静态属性历史数据, 仿真得到海域目标物多维数据; 所述系统还 包括: 样本处理模块, 用于获取样本航迹空间数据和所述样本航迹空间数据对应的样本航迹 灰度图像数据, 并通过栅格化方法, 对 所述样本航迹空间数据进 行转化, 得到航迹三 维图像 矩阵; 生成器训练模块, 用于根据 所述航迹三维图像矩阵, 对生成器网络进行训练, 得到样本 航迹灰度图像预测数据; 判别器训练模块, 用于根据 所述样本航迹灰度图像数据和所述样本航迹灰度图像预测 数据, 对判别器网络进 行训练, 若训练结果满足预设条件, 得到训练好的航迹图像数据生成 模型; 其中, 在所述生成器网络和所述判别器网络构成的生成对抗网络中, 设置有对随机排 序后的样本进行 标记, 并通过独热编码对标记后样本进行表示的约束条件; 所述海域目标物多维数据包括: 船舶自动识别系统仿真数据、 声呐仿真数据、 雷达仿真 数据、 光电图像合成数据和异常事 件模拟; 多维数据仿真模块包括: 航迹图像数据插值处理单元, 用于获取所述航迹图像数据在预设仿真时段中每个时刻 的航迹经纬度点数据, 并通过插值操作, 根据所述航迹经纬度点数据, 得到对应的时间戳数 据; 船舶自动识别系统数据仿真单元, 用于根据所述时间戳数据, 生成船舶 自动识别系统 动态仿真数据, 并根据所述船舶自动识别系统动态仿真数据和船舶自动识别系统静态属性 历史数据, 生成船舶自动识别系统静态仿真数据, 以根据所述船舶自动识别系统动态仿真 数据和所述船舶自动识别系统静态仿真数据, 得到船舶自动识别系统仿真数据; 声呐数据仿真单元, 用于根据声呐设备的探测频率和探测截面正方向角度, 基于所述 船舶自动识别系统动态仿真数据, 生成海域水 下目标物的声呐仿真数据; 雷达数据仿真单元, 用于根据雷达设备的扫描角度范围和扫描频率, 基于所述船舶 自 动识别系统动态仿真数据, 生成海域目标物的雷达 仿真数据;权 利 要 求 书 2/3 页 3 CN 113177264 B 3

.PDF文档 专利 基于生成对抗网络的海域目标物多维数据仿真方法及系统

文档预览
中文文档 24 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共24页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于生成对抗网络的海域目标物多维数据仿真方法及系统 第 1 页 专利 基于生成对抗网络的海域目标物多维数据仿真方法及系统 第 2 页 专利 基于生成对抗网络的海域目标物多维数据仿真方法及系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-19 03:23:25上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。