说明:收录全网最新的团体标准 提供单次或批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211059578.5 (22)申请日 2022.08.31 (71)申请人 南京航空航天大 学 地址 210007 江苏省南京市秦淮区御道街 29号 (72)发明人 李超雄 周健豪 赵万忠 吴旭阳  徐达  (74)专利代理 机构 江苏圣典律师事务所 32 237 专利代理师 周宁 (51)Int.Cl. G06Q 10/06(2012.01) G06Q 50/26(2012.01) G06Q 10/04(2012.01) G06K 9/62(2022.01) G06N 3/04(2006.01)G06N 3/08(2006.01) (54)发明名称 一种基于PPO算法的混合动力系统能量管理 方法 (57)摘要 本发明公开了一种基于PPO算法的混合动力 系统能量管 理方法, 属于混合动力汽 车能量管理 领域, 在保证汽车动力性的前提下, 通过重要性 采样和小批次更新等方法可以在平衡采样效率 和调试难度的同时提升算法的表现性能, 减少次 优策略问题的产生, 可以实现在保证了稳定的 SOC控制目标的基础上, 实现神经网络的快速收 敛, 并获得良好的燃油经济性能。 本发明方法主 要包括: 建立PPO代理模型; 设置PPO代理模型的 状态、 动作和回报, 得到设置后的PPO代理模型; 获取相关训练数据集, 根据获得的相关训练数据 集训练所述PPO代理模型得到训练后的PPO代理 模型; 使用训练后的PPO代理模型进行并联式混 合动力车辆的能量管理。 权利要求书2页 说明书7页 附图3页 CN 115310858 A 2022.11.08 CN 115310858 A 1.一种基于P PO算法的混合动力系统能量管理方法, 其特 征在于, 包括以下步骤: 步骤1: 建立P PO代理模型; 步骤2: 设置P PO代理模型的状态、 动作和回报, 得到设置后的P PO代理模型; 步骤3: 获取相关训练数据集, 根据获得的相关训练数据集训练步骤2得到的所述PP O代 理模型得到训练后的P PO代理模型; 步骤4: 使用训练后的P PO代理模型进行混合动力车辆的能量管理。 2.根据权利要求1所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤1中所述P PO代理模型包括: Actor神经网络与Critic神经网络 。 3.根据权利要求2所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 所 述Actor神经网络使用策略函数; 所述Critic神经网络使用价 值函数。 4.根据权利要求1所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤2中所述状态量为: 汽车车速v, 汽车加速度Acc和动力电池SOC, 状态变量向量为s={v, Acc,SOC}T; 选取发动机转矩Te为动作变量, 动作变量向量为a={Te}T; 奖励函数被用于评价 在当前状态st下执行动作at的表现性能, 所述 奖励函数定义为成本 函数的负值, 奖励函 数如 公式(1)所示: r=‑{fuel(t)+α [ SOCref‑SOC(t)]2}             (1) 其中, fuel(t)为当前时刻下汽车的燃油消耗, SOCref为期望SOC的参考值, SOC(t)为当 前时刻电池SOC值, α 为电池充电维持的权 重。 5.根据权利要求1所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤3具体包括以下步骤: 步骤A: 初始化所述设置后的P PO代理模型参数, 得到初始化后的P PO代理模型; 步骤B: 将初始化后的P PO代理模型应用于混合动力汽车模型, 在驾驶循环中进行交 互; 步骤C: 根据梯度更新法不断更新Actor和Critic网络参数, 直到达到能量管理最优策 略的训练要求, 收敛后最 新网络参数 下的模型即为 最终得到训练后的P PO代理模型。 6.根据权利要求5所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤A具体包括: 分别初始化所述设定后的PPO代理模型中的Actor网络参数与Critic网络参 数, 分别用 θ和ω表示; 累计梯度dθ ←0和dω←0, 最终得到初始化后的P PO代理模型。 7.根据权利要求5所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤B具体包括: Actor网络与驾驶环境进行交互, 将当前状态集合st={v,Acc,SOC}T输入 Actor神经网络, Actor网络通过激活函数输出一个正态分布的均 值 μ(st; θ )和标准差σ(st; θ )为策略π 的分布, 调用函数对策略π 随机取样, 得到动作at, 将当前动作at作用于混合动力 汽车得到当前回报rt以及下一时刻 的状态集合st+1; 最后根据上述的相关数据st, at, rt和 st+1, 得到训练数据集(st,at,rt), 当存储量达到一个batch后, 计算折扣奖励R和优势函数 Adv, 然后将数据集清零。 8.根据权利要求5所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤C具体包括以下步骤: 步骤(Ⅰ): 在运行步数达到一定步数N后, PPO开始进行N步更新, 将目标策略π的参数赋 值给行为策略πold; 步骤(Ⅱ): 采用梯度上升更新Actor网络的参数, 更新公式为:权 利 要 求 书 1/2 页 2 CN 115310858 A 2其中, π和 πold分别表示两个Actor网络所生成的需要更新的目标策略和当前行为策略, 使用KL[ πold|π]即KL散度来衡量两种策略之间的差异, λ为动态调整的系数, 通过调整 λ从而 控制两个分布之间的距离; 步骤(Ⅲ): 采用梯度下降法更新Critic网络策略参数, 更新公式为: 步骤(Ⅳ): 为限制新旧策略差异程度, 根据不同KL散度范围对参数 λ进行 更改: KL[ πold| π ]>βhighKLtarget时, λ=α * λ( α >1); KL[ πold| π ]<βlowKLtarget时, λ= λ/α( α >1)。 其中, KLtarget为期望达到的KL值, βhigh和βlow分别表示判断实时KL值偏离期望达到的KL 值的幅度时所设置的增益系数; 步骤(Ⅴ): 如此重复步骤( Ⅰ)至步骤(IV), 直到驾驶循环最后时间步, 完成一次Episode 训练, 进入下一个Episode, 继续训练; 步骤(Ⅵ): 记录每次Episode结束后的数据, 重复Episode训练, 直至多个Episode结果 收敛, 表明达 到训练要求, 最后得到训练后的P PO代理模型。 9.根据权利要求1所述的基于PPO算法的混合动力系统能量管理方法, 其特征在于, 步 骤4中使用训练后的PPO代理模型进行并联式混合动力车辆的能量管理, 具体包括 以下步 骤: 第一步: 通过相关传感器获取汽车当前状态量 集合st={v,Acc,SOC}T; 第二步: 将获取的汽车当前状态量集合st={v,Acc,SOC}T输入训练后的PPO代理模型, 进而输出控制量发动机转矩Te; 第三步: 将所获得的控制量发动机转矩Te作用于汽车, 驱动汽车行驶, 进而得到下一时 刻汽车状态量 集合st+1={v,Acc,SOC}T; 第四步: 如此重复第一 步至第三 步, 直至汽车完成行驶任务。 10.根据权利要求1 ‑9任一项所述的基于PPO算法的混合动力系统能量管理方法应用于 并联式混合动力系统。权 利 要 求 书 2/2 页 3 CN 115310858 A 3

.PDF文档 专利 一种基于PPO算法的混合动力系统能量管理方法

文档预览
中文文档 13 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共13页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于PPO算法的混合动力系统能量管理方法 第 1 页 专利 一种基于PPO算法的混合动力系统能量管理方法 第 2 页 专利 一种基于PPO算法的混合动力系统能量管理方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 03:56:51上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。