(19)中华 人民共和国 国家知识产权局
(12)发明 专利
(10)授权公告 号
(45)授权公告日
(21)申请 号 202110386948.5
(22)申请日 2021.04.12
(65)同一申请的已公布的文献号
申请公布号 CN 113094993 A
(43)申请公布日 2021.07.09
(73)专利权人 电子科技大 学
地址 611731 四川省成 都市高新区 (西区)
西源大道 2006号
(72)发明人 李建清 李红丽 张瑾 莫尊胤
黄浩 王姣 王宏
(74)专利代理 机构 成都虹盛汇泉专利代理有限
公司 51268
代理人 王伟
(51)Int.Cl.
G06F 30/27(2020.01)
G06N 3/04(2006.01)
G06N 3/08(2006.01)
G06K 9/62(2022.01)
H04L 27/00(2006.01)(56)对比文件
CN 111401236 A,2020.07.10
CN 112149617 A,2020.12.2 9
CN 111490853 A,2020.08.04
CN 1096726 39 A,2019.04.23
CN 110942100 A,2020.0 3.31
CN 109858408 A,2019.0 6.07
CN 110020684 A,2019.07.16
WO 20202 22879 A1,2020.1 1.05
CN 109743275 A,2019.0 5.10
杜渺勇等.基 于自编码卷积神经网络的图像
去噪算法. 《杭州师 范大学学报 (自然科 学版) 》
.2021,第20卷(第1期),第95 -101页. (续)
审查员 姚雪琴
(54)发明名称
基于自编码神经网络的调制信号去噪方法
(57)摘要
本发明公开了一种基于自编码神经网络的
调制信号去噪方法, 包括以下步骤: 步骤1、 采用
MATLAB仿真软件模拟一般通信链路结构, 生成各
类通信调制信号的带噪样本数据集和纯净样本
数据集; 步骤2、 对各样本集进行[0, 1]归 一化; 步
骤3、 构建基于自编码神经网络的调制信号去噪
自动编码器并设置超参数; 步骤4、 训练去噪模
型, 利用反向传播算法和梯度下降法优化更新神
经网络中参数的取值, 得到去噪模型。 本发明使
用了基于自编码神经网络的去噪网络模型, 避免
了传统调制信号去噪算法中对信号复杂的预处
理过程, 整体结构流程较简单, 网络计算量较小,
去噪速度较快。
[转续页]
权利要求书3页 说明书8页 附图3页
CN 113094993 B
2022.03.29
CN 113094993 B
(56)对比文件
刘亚博.基 于神经网络的调制类型识别算法
研究. 《中国优秀硕士学位 论文全文数据库 信息
科技辑》 .2020,(第2020 (02) 期),I13 6-322.
ZHIYU QU等.Radar Signal I ntra-Pulse Modulati on Recogn ition Based o n
Convolutional Denoising Autoencoder and
Deep Convolutional Neural Netw ork. 《IEEE
Access》 .2019,第7 卷第112339-112347页.2/2 页
2[接上页]
CN 113094993 B1.基于自编码神经网络的调制信号去噪方法, 其特 征在于, 包括以下步骤:
步骤1、 采用MATLAB仿真软件模拟一般通信链路结构, 生成各类通信调制信号的带噪样
本数据集和纯 净样本数据集;
步骤2、 对各样本集进行[0, 1]归一 化;
步骤3、 构建基于自编码神经网络的调制信号去噪自动编码器并设置超参数; 具体实现
方法为: 基于自编码神经网络的调制信号去噪自动 编码器包括特 征编码器和生成解码器;
特征编码器由三个卷积层和三个池化层交替连接而成, 形成串联的叠层结构, 以完成
逐层提取特征的任务; 三个卷积层的输出节点分别设置为128、 64、 16; 每个卷积层中添加
ReLU线性整流激活函数; 设置每层padding= “same”, 采用打补丁的方式使每层卷积的输出
长度与输入长度保持一致; 池化层的大小为2, 用来逐渐缩减每层卷积的输入大小, 提升模
型的计算速度, 同时提高模型提取 特征的鲁棒 性;
生成解码器采用与 特征编码器对称的结构, 同样由三个卷积层和三个池化层交替连接
而成, 卷积层的输出节点分别设置为16、 64、 128;
所述叠层串联结构通过特征编码器对输入的一维时域带噪调制信号进行卷积操作生
成时域幅度特征图, 再采用池化层对特征图进行下采样, 从而降低特征图维数并选择出最
显著的特征; 随后通过生成解码器对特征进行反卷积和上采样操作, 增加特征维数至输入
信号的长度, 最后在解码 器网络的末端 连接了一个 sigmoid分类器作为输出层, 输出重构样
本;
所述池化层均采用Max ‑Pooling方式, 即最大池化方式;
设置所述调制信号去噪模型的超参数, 将网络的学习率设为0.001的固定值; 将训练时
每次输入网络的样 本数量batch_ size设为16; 每一轮迭代的最大批训练次数设为500、 最大
批验证次数设为 100; 训练的最高迭代次数设为300; 初始迭代次数为1; 每训练一轮, 输出损
失函数Loss值;
基于自编码神经网络的调制信号去噪自动 编码器的结构关系如下:
第一层为输入层, 可接收的输入大小设置为(20 000,1);
第二层为第一卷积层, 有128个卷积核, 每个卷积核的大小为1x3, 卷积步长为1, 采用
ReLU线性整流激活函数作为激活函数, 设置pad ding=“same”;
第三层为第一池化层, 采用Max ‑Pooling方式进行 下采样, 采样核size为2;
第四层为第二卷积层, 有64个卷积核, 每个卷积核的大小为1x3, 卷积步长为1, 采用
ReLU线性整流激活函数作为激活函数, 设置pad ding=“same”;
第五层为第二池化层, 采用Max ‑Pooling方式进行 下采样, 采样核size为2;
第六层为第三卷积层, 有16个卷积核, 每个卷积核的大小为1x3, 卷积步长为1, 采用
ReLU线性整流激活函数作为激活函数, 设置pad ding=“same”;
第七层为第三池化层, 采用Max ‑Pooling方式进行 下采样, 采样核size为2;
第八层为第一卷积层, 有16个卷积核, 每个卷积核的大小为1x3, 卷积步长为1, 采用
ReLU线性整流激活函数作为激活函数, 设置pad ding=“same”;
第九层为第一上采样层, 采样核size为2;
第八层为第二卷积层, 有64个卷积核, 每个卷积核的大小为1x3, 卷积步长为1, 采用
ReLU线性整流激活函数作为激活函数, 设置pad ding=“same”;权 利 要 求 书 1/3 页
2
CN 113094993 B
3
专利 基于自编码神经网络的调制信号去噪方法
文档预览
中文文档
16 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共16页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-19 03:23:29上传分享