说明:收录全网最新的团体标准 提供单次或批量下载
(19)中华 人民共和国 国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202111664231.9 (22)申请日 2021.12.3 0 (71)申请人 华南理工大 学 地址 510640 广东省广州市天河区五山路 381号 (72)发明人 王豪 肖南峰  (74)专利代理 机构 广州市华学知识产权代理有 限公司 4 4245 代理人 冯炳辉 (51)Int.Cl. G06V 20/00(2022.01) G06V 10/762(2022.01) G06V 10/80(2022.01) G06V 10/82(2022.01) G06K 9/62(2022.01)G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 基于改进YOLOV4的水 下目标检测方法 (57)摘要 本发明公开了一种基于改进YOLOV4的水下 目标检测方法, 包括: 1)前期数据处理, 包括对原 始数据集进行Albumentations数据增强和 Retinex数据增强, 将处理后的数据集通过k ‑ means聚类算法对数据集中的边界框进行聚类; 2)把聚类 结果作为改进YOLOV4的边界框 大小, 将 处理后数据集输入到主干网络模块, 通过主干网 络模块获取目标的特征信息, 将提取的特征信息 输入到特征提取模块, 特征提取模块进行不同尺 度的最大池化和融合操作, 特征融合后的信息进 行卷积运算, 得到不同尺度的特征层输出, 最终 由预测模块对输出的数据进行信息分析和处理, 得出检测结果。 本发明具有了深度学习技术的特 性, 通过训练可以不断优化网络, 提高检测能力。 权利要求书1页 说明书4页 附图2页 CN 114373118 A 2022.04.19 CN 114373118 A 1.基于改进YOLOV4的水下目标检测方法, 其特征在于, 该方法是基于改进YOLOV4实现 水下目标的精准检测, 该改进YOLOV4是对原来YOLOV4的主干网络模块、 特征提取模块和预 测模块都进行了改进, 其中, 对主干网络模块的改进是: 加入深度可分卷积, 并且把原来的 激活函数改为DyReluB激活函数; 对 特征提取模块的改进 是: 在最大池化层后加入通道关注 的注意力机制网络; 对预测模块的改进是: 增多了一个 检测小目标样本的YOLO头 部; 该水下目标检测方法的具体实施包括以下步骤: 1)前期数据处理, 包括对原始数据集进行Albumentations数据增强和Retinex数据增 强, 将处理后的数据集 通过k‑means聚类算法对数据集中的边界框进行聚类; 2)把聚类结果作 为改进YOLOV4的边界框大小, 然后将处理后数据集输入到主干 网络模 块, 通过主干网络模块 获取目标的特征信息, 将提取的特征信息输入到特征提取模块, 特征 提取模块进行不同尺度的最大池化和融合操作, 特征融合后的信息进行卷积运算, 得到不 同尺度的特征层输出, 最终由预测模块对特征提取模块输出 的数据进行信息分析和处理, 得出检测结果。 2.根据权利 要求1所述的基于改进YOLOV4的水下目标检测方法, 其特征在于, 在步骤1) 中, 所述Albumentations数据增强的情况是: 对原始数据进 行行逐像素的转换和空间转换; 所述Retinex数据增强的情况是: 水下成像的背景为蓝色或绿色, 因此要进行复原, 修正图 像色度, 提升图像对比度, 使图像拥有更好的视觉效果, 更加明显的图像细节; 通过上述两 个数据增强, 能够提高改进Y OLOV4的泛化能力, 防止过拟合; 将经过增强后的数据集使用k ‑ means聚类算法对数据集中的边界框进行聚类, 获得12个聚类结果。 3.根据权利 要求1所述的基于改进YOLOV4的水下目标检测方法, 其特征在于, 在步骤2) 中, 经过前期处理后的数据集输入到主干网络模块中, 主干网络模块读取输入的图像信息, 进行5次下采样, 获取不同尺 寸目标的特征信息, 主干网络模块包括CSPX模块和CBDW R模块, 其中CSPX模由卷积层和残差模块拼接组成, CBDWR模块包含依次连接的卷积层、 标准化层、 深度可分卷积、 标准化层和DyReluB激活层, 该CBDWR模块中加入了深度可分卷积和DyReluB 激活层, 使得主干网络模块的信息读取能力更强; 特征提取模块是将主干网络模块输出的特征信 息作为输入, 把不同尺度的特征图进行 融合, 特征提取模块在改进Y OLOv4中的目的是增加网络的感受野, 更好地提取融合特征, 提 升性能, 不同尺度的特征图的处理不会改变输入图像的尺 寸, 每个最大池化结果 都是512个 通道, 在最大池化后加入通道关注的注意力机制模块, 这能适当地跨信道交互降低网络复 杂度, 同时获得性能提高; 预测模块是将特征信 息通过上采样的方式进行传递融合成特征图, 得到特征图后进行 预测, 最后采用非极大值抑制方法 并调整先验框来确定最 终的结果, 预测模块包含4个Y OLO 头部, 而YOLO头部由卷积层和CBDR模块组成, CBDR模块包括一个卷积层、 一个标准化层和一 个DyReluB激活层, 改进YOLOV4在预测 模块中增 多了一个专门用来检测 小目标样本的YOLO 头部, 即把原来YOLOV4的头部尺度由19 ×19、 38×38、 76×76扩展为19 ×19、 38×38、 76× 76、 152×152四个维度, 有利于对水 下小目标的检测。权 利 要 求 书 1/1 页 2 CN 114373118 A 2基于改进Y OLOV4的水下目标 检测方法 技术领域 [0001]本发明涉及深度学习图像处理的技术领域, 尤其是指 一种基于改进YOLOV4的水下 目标检测方法。 背景技术 [0002]在现代社会大部分海洋生物具有一定 的经济价值, 充分利用和 保护海洋生物, 有 效监测海洋生物生长, 做出科学有效的管理方案显得尤为重要。 人工检测方法成本高, 耗费 时间, 而且精度低下; 另一方面, 随着观测规模的增加, 这种方法越来越不可行。 目前, 目标 检测技术的飞速发展, 其应用的范围也越来越大, 水下目标检测在海洋环境探索, 生态保 护, 渔业养殖辅助等方面 发挥着越来越重要的作用。 海洋生物资源丰富多样, 为了更好地了 解、 利用和保护这些有限资源, 传统的方法是通过肉眼观察图片或者视频来获取相关水下 生物的生长情况。 但是这种方法存在不足, 在光照条件不 足和部分遮挡的时候, 产生的图像 通过肉眼难以识别, 而且效率很低。 因此, 把目标检测的技术应用到水下环境的探索十 分有 必要。 [0003]在2016年, 有 学者提出了深度学习时代的单阶段模型Y OLO(You Only Look Once) 和后来的YOLOv2、 YOLOv3。 以及SSD、 Retina  Net等目标检测算法。 2017年, 相关学者提出基 于候选区域提出的RCNN和Fast  R‑CNN。 目标检测一般分为一阶检测器和二阶检测器, 一阶 检测器是直接对特征图像上的每个位置进 行类别预测, 而二阶检测器是首先使用候选框生 成器生成稀疏 的候选框集, 然后使用深度卷积网络编码生成候选框的特征向量, 最后使用 区域分类器预测候选框区域类别。 二阶检测器代表性算法为R ‑CNN、 fast  R‑CNN、 faster  R‑ CNN等。 一阶检测器代表性算法有YOLO系列、 SSD、 RetinaNet等。 考虑到实时性和准确性的要 求, 本文选择YOLOv4 算法来实现水 下目标检测。 [0004]人们一直在探索水下的环境, 而我们常用的检测算法和理论在 一定的程度上受到 了很多限制。 由于水下环境比陆地上要复杂的多, 在水下没有光源的情况下, 水下的视频采 集系统必须依赖人造光源提供照明, 光在水中传输时又会受到水 的吸收、 反射和散射等影 响而发生严重的衰减, 采集到的水下图像难免会出现可见范围有限、 模糊不清、 低对比度、 非均匀光照、 色彩不协调及噪声等问题。 [0005]随着深度学习技术逐渐崛起, 智能算法被应用于各种生活的场景。 本发明出一种 基于改进Y OLOV4的水下目标检测方法来检测四种水下生物: 海参、 水草、 海胆、 扇贝和海星。 首先, 在主干网络模块加入深度可分卷积; 在特征提取模块中增加通道关注的注意力机制, 提升效果显著; 在预测模块增多了一个YOLO头部, 有利于对小目标的检测。 其次, 使用k ‑ means聚类算法对 数据集中的边界框进行聚类, 根据聚类结果作为改进YOLOV4的边界框。 改 进后的YOLOV4方法在水 下目标检测的准确率更高, 泛化能力好。 发明内容 [0006]本发明的目的在于针对现有的YOLOV4模型特点, 考虑水下目标检测的光线条件说 明 书 1/4 页 3 CN 114373118 A 3

.PDF文档 专利 基于改进YOLOV4的水下目标检测方法

文档预览
中文文档 8 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共8页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于改进YOLOV4的水下目标检测方法 第 1 页 专利 基于改进YOLOV4的水下目标检测方法 第 2 页 专利 基于改进YOLOV4的水下目标检测方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-19 03:56:05上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。