说明:收录全网最新的团体标准 提供单次或批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211208866.2 (22)申请日 2022.09.30 (71)申请人 华中科技大 学 地址 430074 湖北省武汉市洪山区珞喻路 1037号 (72)发明人 黄涛 章鸿正 伍泊澄 张小明  丁汉  (74)专利代理 机构 华中科技大 学专利中心 42201 专利代理师 孔娜 (51)Int.Cl. G06F 30/15(2020.01) G06F 30/23(2020.01) G06F 30/27(2020.01) G06T 17/20(2006.01) (54)发明名称 一种薄壁叶片加工时变模态参数高效预测 方法及系统 (57)摘要 本发明属于薄壁叶片模态预测领域, 并具体 公开了一种薄壁叶片加工时变模态参数高效预 测方法及系统, 其包括如下步骤: 对叶片三维模 型进行网格划分与节点坐标提取, 依据提取得到 的节点坐标进行特征处理, 获取叶片外形特征数 据; 基于深度学习搭建叶片频率预测模型和振型 预测模型; 实时获取叶片加工参数, 并根据加工 参数修改叶片外形特征数据, 将其输入频率预测 模型和振型预测模型, 得到叶片前 五阶频率和振 型, 实现叶片加工时模态参数的实时预测。 本发 明实现了依据叶片的三维模型预测叶片加工过 程中模态参数的功能, 预测过程自动化程度高, 人工操作少且简单, 软件运算速度快, 精度较高, 解决了难以获取薄壁叶片加工过程中模态参数 的问题。 权利要求书3页 说明书7页 附图2页 CN 115544656 A 2022.12.30 CN 115544656 A 1.一种薄壁叶片加工时变模态参数高效预测方法, 其特 征在于, 包括如下步骤: S1、 对叶片三维模型进行网格划分与节点坐标提取, 依据提取得到的节点坐标进行特 征处理, 获取叶片外形 特征数据; S2、 基于深度学习搭建叶片频率预测模型和振型 预测模型; S3、 实时获取叶片加工参数, 并根据加工参数修改叶片外形特征数据; 进而将叶片外形 特征数据输入频率预测模型和振型预测模型, 得到叶片前五阶频率和振型, 实现叶片加工 时模态参数的实时预测。 2.如权利要求1所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 步骤S1 具体包括: S11、 根据叶片三维模型, 提取叶盆和叶背这两个叶面的信息; S12、 分别对两个叶面进行网格划分, 每 个叶面划分得到25 6×256个网格节点; S13、 去除网格节点中的杂点, 提取有效的叶面节点 坐标, 并构造成矩阵形式; S14、 将两个叶面节点 坐标对应取平均值, 得到中间曲面的各节点 坐标; S15、 以叶片底面的中间曲线 的中点作为原点, 切线方向作为x轴, 叶片的高度方向为z 轴, 建立空间直角坐标系; 通过齐次变换对叶盆、 叶背及中间曲面进行坐标变换, 得到该空 间直角坐标系下三个曲面的节点 坐标; S16、 通过S15中得到的中间曲面的各节点坐标表示叶片的长宽高和曲率信息, 通过S15 中得到的叶盆、 叶背曲面的各节点 坐标表示叶片的厚度, 实现叶片外形 特征数据获取。 3.如权利要求2所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 所述频 率预测模型包括8层编码层、 8层解码层和1层 池化层; 频率预测模型先将叶片 外形特征数据 编码成256 ×256×5的矩阵形式, 并进行8层编码层的卷积, 得到1 ×1×512矩阵; 然后经过8 层解码层和1层池化层运 算, 得到1 ×1×5的结果矩阵, 表示叶片前五阶频率; 所述振型预测模型包括8层编码层和8层解码层; 振型预测模型先将叶片外形特征数据 编码成256 ×256×5的矩阵形式, 并进行8层编码层的卷积, 得到1 ×1×512矩阵; 然后经过8 层解码层运 算, 得到25 6×256×5的结果矩阵, 表示叶片前五阶振型。 4.如权利要求3所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 将叶片 外形特征数据输入频率预测模型和振型 预测模型时, 需对叶片外形 特征数据进行归一 化: 针对频率预测模型, 设定归一化阈值, 使用线性归一化将叶片外形特征数据归一化到 ‑ 1~1之间; 在得到频率预测模型 预测的频率结果后, 需反归一 化得到真实频率; 针对振型预测模型, 将叶片等比例缩放, 使叶片外形特征数据归一化到 ‑1~1之间; 振 型预测模型 预测的振型 结果即为 最终结果。 5.如权利要求3所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 所述振 型预测模型的结构具体如下: (1)输入的256 ×256×5的矩阵首先经过编码层1进行下卷积和线性整流, 得到128 × 128×64的矩阵; (2)编码层2将编码层1的输出进行 下卷积、 标准 化和整流, 得到 64×64×128的矩阵; (3)编码层3将编码层2的输出进行 下卷积、 标准 化和整流, 得到 32×32×256的矩阵; (4)编码层4将编码层3的输出进行 下卷积、 标准 化和整流, 得到16 ×16×512的矩阵; (5)编码层5将编码层4的输出进行 下卷积、 标准 化和整流, 得到8 ×8×512的矩阵;权 利 要 求 书 1/3 页 2 CN 115544656 A 2(6)编码层6将编码层5的输出进行 下卷积、 标准 化和整流, 得到4 ×4×512的矩阵; (7)编码层7将编码层6的输出进行 下卷积、 标准 化和整流, 得到2 ×2×512的矩阵; (8)编码层8将编码层7的输出进行 下卷积、 标准 化和整流, 得到1 ×1×512的矩阵; (9)解码层1将编码层8的输出进行上卷积、 标准化和整流, 并采用随机单元丢弃 dropout, 得到2 ×2×512的矩阵; (10)解码层2将解码层1和编码层7的输出进行整合, 经过上卷积、 标准化和整流, 并采 用随机单 元丢弃dropout, 得到4 ×4×512的矩阵; (11)解码层3将解码层2和编码层6的输出进行整合, 经过上卷积、 标准化和整流, 并采 用随机单 元丢弃dropout, 得到8 ×8×512的矩阵; (12)解码层4将解码层3和编码层5的输出进行整合, 经过上卷积、 标准化和整流, 并采 用随机单 元丢弃dropout, 得到16 ×16×512的矩阵; (13)解码层5将解码层4和编码层4的输出进行整合, 经过上卷积、 标准化和整流, 得到 32×32×256的矩阵; (14)解码层6将解码层5和编码层3的输出进行整合, 经过上卷积、 标准化和整流, 得到 64×64×128的矩阵; (15)解码层7将解码层6和编码层2的输出进行整合, 经过上卷积、 标准化和整流, 得到 128×128×64的矩阵; (16)解码层8将解码层7和编码层1的输出进行整合, 经过上卷积、 标准化和整流, 得到 256×256×5的矩阵, 即为叶片前五阶振型的集 合。 6.如权利要求5所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 所述频 率预测模型的编码层和解码层结构与振型 预测模型一 致, 频率预测模型还 包括: (17)池化层将解码层8的输出数据进行平均池化, 得到1 ×1×5的矩阵, 然后进行池化 层的平均池化, 得到叶片前五阶频率数据。 7.如权利要求1所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 频率预 测模型基于生成对抗网络构建, 使用前, 需对频率预测模型进 行预训练; 频率预测模型预训 练使用的损失函数LG为: LG=EX,Y[||G(X)‑Y||] 其中, X为输入生成器的叶片外形特征数据, G(X)为生成器生成的频率, Y为对应的真实 频率矩阵; EX,Y[·]表示在X、 Y分布函数 下的目标函数的期望值。 8.如权利要求1所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在于, 振型预 测模型基于生成对抗网络构建, 使用前, 需对振型预测模型进 行预训练; 振型预测模型使用 的损失函数为: LG3= λEX,Y[||(G(X)‑Y)2||]+λ(EX,Y[||(G(X)‑Y)||])2+EX[log(D(X,G(X) ))] LD=EX[log(1‑D(X,G(X) ))]+EX,Y[log(D(X,Y) )] 其中, LG3、 LD分别为生成器和判别器的损失函数, X为输入生成器的叶片外形特征数据, G(X)为生成器生成的振型, Y为对应的叶片真实振型; D(X,G(X))为判别器判别 生成振型好 坏的结果, λ为权重参数; EX,Y[·]表示在X、 Y分布函数下 的目标函数 的期望值, EX[·]表示 在分布函数 X下的目标函数的期望值。 9.如权利要求1 ‑8任一项所述的薄壁叶片加工时变模态参数高效预测方法, 其特征在权 利 要 求 书 2/3 页 3 CN 115544656 A 3

.PDF文档 专利 一种薄壁叶片加工时变模态参数高效预测方法及系统

文档预览
中文文档 13 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共13页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种薄壁叶片加工时变模态参数高效预测方法及系统 第 1 页 专利 一种薄壁叶片加工时变模态参数高效预测方法及系统 第 2 页 专利 一种薄壁叶片加工时变模态参数高效预测方法及系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 12:56:06上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。