说明:收录全网最新的团体标准 提供单次或批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210696206.7 (22)申请日 2022.06.20 (71)申请人 中国科学院长春光学精密机 械与物 理研究所 地址 130033 吉林省长 春市东南湖大路 3888号 (72)发明人 吴杰 高策 余毅 张艳超  (74)专利代理 机构 长春众邦菁华知识产权代理 有限公司 2 2214 专利代理师 张伟 (51)Int.Cl. G06V 10/774(2022.01) G06V 10/764(2022.01) G06V 10/80(2022.01) G06V 10/82(2022.01) (54)发明名称 一种基于YOLOv4改进算法的大视场目标检 测方法 (57)摘要 本发明涉及一种基于YOLOv4改进算法的大 视场目标检测方法, 包括步骤: 构建大视场图像 数据集; 对数据集中的源图像S进行图像预处理 以及标注, 将 全部标注后的图像划分为训练集和 测试集; 构建改进的YOLOv4网络模型, 模型包括 高精度特征提取子网络、 加强型特征多尺度融合 子网络和轻量型目标分类子网络; 利用训练集对 改进的YOLOv4网络模型进行训练, 训练后得到最 优网络模型; 将待识别的大视场图像输入到最优 网络模型中, 最优网络模型输出对应的大视场目 标检测结果。 本发明在提高检测精度和速度的同 时, 降低了对计算机硬件和算力的依赖, 可以在 无GPU的嵌入式设备上运行, 节省了设备的存储 空间, 满足现实生活中目标检测速度的需求。 权利要求书2页 说明书7页 附图4页 CN 114998688 A 2022.09.02 CN 114998688 A 1.一种基于 YOLOv4改进算法的大视场目标检测方法, 其特 征在于, 包括以下步骤: 步骤一: 构建大视场图像数据集; 步骤二: 对所述大视场图像数据集中的源图像S进行局部颜色直方图匹配预处理, 并对 预处理后的图像进行 标注, 将全部标注后的图像划分为训练集和 测试集; 步骤三: 构建改进的YOLOv4网络模型, 所述改进的YOLOv4网络模型包括高精度特征提 取子网络、 加强型特征多尺度融合子网络和轻量型目标分类子网络, 所述高精度特征提取 子网络使用CSP结构对输入图像进行目标特征提取, 所述加强型特征多尺度融合子网络包 括三个多尺度融合预测网络层, 结合密集连接对提取 的目标特征进行多尺度融合预测, 得 到三个尺度的融合特征, 所述轻量型目标分类子网络基于三个尺度的融合特征进 行目标分 类检测; 步骤四: 初始化所述改进的YOLOv4网络模型的训练参数后, 设置迭代次数和学习率, 向 初始化后的网络输入所述训练集, 用一致性监督损失的反向梯度传播方法更新网络参数, 以损失值和AP值作为评价指标, 训练后得到最优网络模型; 步骤五: 将待识别的大视场图像输入到所述最优网络模型中, 所述最优网络模型输出 对应的大视场目标检测结果。 2.根据权利要求1所述的一种基于YOLOv4改进算法的大视场目标检测方法, 其特征在 于, 对所述大视场图像数据集中的源图像S进行局部颜色直方图匹配预处理的过程包括以 下步骤: 利用局部颜色直方图匹配的方法对所述大视场图像数据集中的源图像S进行图像质量 增强; 将所述源图像S划分为若干个面积相等的矩形块; 分别与所述矩形块进行直方图对应, 得到每一个所述矩形块的源图像的概率分布函 数; 根据每一个所述矩形块的源图像的概 率分布函数 得到所有对应矩形块的逆映射; 根据各个矩形块的逆映射得到经过匹配后的图像T, 该经过匹配后的图像T中的每个小 块将作为所述改进的YOLOv4网络模型的输入。 3.根据权利要求2所述的一种基于YOLOv4改进算法的大视场目标检测方法, 其特征在 于, 对预处 理后的图像进行 标注的过程包括以下步骤: 使用开源标注工具LabelImg将经过匹配后的图像T标注为.xml和.txt两种文本, 其中 .xml文本的命名对应图像的命名顺序, 放在文件夹Annotation中, .txt文本分为用于训练 的文件train.txt和用于测试的文件test.txt, 文件train.txt和文件test.txt里面包含图 像的相对路径, 二者放在 文件夹ImageSets的Main文件夹中, 标注后的文件中会保存图像中 各个目标的类别、 尺寸和位置 。 4.根据权利要求1至3任意一项所述的一种基于YOLOv4改进算法的大视场目标检测方 法, 其特征在于, 在所述高精度特征提取子网络中, 图像数据集通过图像增强和通道切割变 换处理, 以三通道的图像形式作为输入, 将每组通道分成3等份, 将3 ×3组通道构成3 ×3的 矩阵; 所述高精度特征提取子网络使用CSP结构对输入图像进行目标特征提取时, 通过矩阵 转置操作, 将卷积分组特 征转换位置后再平坦 化, 分回给 各个组卷积作为下一层的输入;权 利 要 求 书 1/2 页 2 CN 114998688 A 2在每个通道用一个3 ×3卷积用来对空间区域范围进行特征提取, 1 ×1标准卷积是将逐 深度卷积所提取特征进行深度融合, 同时在特征获取阶段和多尺度上采样前使用密集连接 的网络结构, 采用跳跃连接的方式整合每一阶段的特征, 在各个输入端加上前一层的输出 特征。 5.根据权利要求1至3任意一项所述的一种基于YOLOv4改进算法的大视场目标检测方 法, 其特征在于, 三个所述多尺度融合预测网络层的尺度分别为14 ×14、 28×28、 56×56, 在 三个所述多尺度融合预测网络层的支路上设计密集连接的卷积形式, 它们之 间用由1×1大 小的点卷积组成, 增 加密集连接后再进行 上采样。 6.根据权利要求1至3任意一项所述的一种基于YOLOv4改进算法的大视场目标检测方 法, 其特征在于, 所述轻量型目标分类子网络包括三个用于接 收所述加强型特征多尺度融 合子网络输出 的融合特征 的分类器, 每一个所述分类器包括轻量化模块, 所述轻量化模块 包括全局平均池化层、 卷积层和BN层, 所述全局平均池化层的作用是将特征通道上的信息 平均成一个值, 所述BN层将提取到的目标进行归一 化处理, 同时进行 特征权重的重映射。 7.根据权利要求6所述的一种基于YOLOv4改进算法的大视场目标检测方法, 其特征在 于, 所述全局平均池化层的计算公式如下: 其中, H、 W、 C分别代表输入卷积的高、 宽和 特征通道数, Xi,j∈R1×1×C代表前一层的输出 数据。 8.根据权利要求6所述的一种基于YOLOv4改进算法的大视场目标检测方法, 其特征在 于, 所述BN层的变换公式 如下: 其中, Zin和 分别表示BN层的输入、 输出, μb和σb表示输入平均值和标准差, ε为偏移 量, γ和β 为仿射变换参数, 利用此参数与输出通道的乘积为通道重要性的依据, 对低分冗 余的权重进行删减。 9.根据权利要求1至3任意一项所述的一种基于YOLOv4改进算法的大视场目标检测方 法, 其特征在于, 在步骤四中, 以损失值和AP值作为评价指标进行训练时, 在训练过程中每 4000次迭代保存一次此时的网络模型, 将损失值作为评价指标, 迭代过程中迭代致损失函 数的阈值为0.05以下停止训练, 若遇到损失函数不收敛的情况, 则调整一次网络参数直到 损失函数收敛, 并选择AP值 最高值时得到的训练好的模型作为 最优网络模型。 10.根据权利要求1至3任意一项所述的一种基于YOLOv4改进算法的大视场目标检测方 法, 其特征在于, 所述大视场图像数据集中源图像S的大小为448 ×448, 所述迭代次数为 100000次, 所述学习率 为0.001。权 利 要 求 书 2/2 页 3 CN 114998688 A 3

.PDF文档 专利 一种基于YOLOv4改进算法的大视场目标检测方法

文档预览
中文文档 14 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于YOLOv4改进算法的大视场目标检测方法 第 1 页 专利 一种基于YOLOv4改进算法的大视场目标检测方法 第 2 页 专利 一种基于YOLOv4改进算法的大视场目标检测方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:25:57上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。