基于轻量化YOLOv5的安全帽检测.pdf
《基于轻量化YOLOv5的安全帽检测.pdf》由会员分享,可在线阅读,更多相关《基于轻量化YOLOv5的安全帽检测.pdf(6页珍藏版)》请在咨信网上搜索。
1、计算机与现代化JISUANJI YU XIANDAIHUA2023年第10期总第338期文章编号:1006-2475(2023)10-0059-06收稿日期:2022-11-11;修回日期:2022-12-07基金项目:国家自然科学基金资助项目(61601235);国电南瑞科技股份有限公司项目(2022h275)作者简介:李延满(1974),男,陕西安康人,高级工程师,硕士,研究方向:配网自动化,配电网智能运维,E-mail:;王必恒(1981),男,贵州务川人,高级工程师,本科,研究方向:电气及其自动化,配网自动化,E-mail:;通信作者:赵羚焱(2003),女,江苏江阴人,本科生,研究方
2、向:边缘计算,配电网调度,E-mail:zeo_。0引言随着物联网、人工智能等技术的飞速发展,配电网运维施工安全监控逐步走向智能化1。它可以监控设备故障、违规操作、非法闯入以及火灾隐患等,极大降低了劳动密集程度,并有效防止人身事故的发生。安全帽检测是常规检查项目,与工人的安全息息相关。传统的安全帽检测方法主要依赖于多特征融合,通过图像处理技术获取肤色、头部以及面部等信息,然后进行相应的检测。例如,Waranusast等人2提出了一种基于K近邻的摩托车头盔自动检测系统。Li等人3应用霍夫变换确定安全帽的形状,并利用相应的直方图训练支持向量机,进而进行检测。传统的安全帽检测方法往往不考虑复杂的背景
3、环境,存在大量误检和漏检的问题,对中、小物体敏感,导致较高的误报率,同时速度较慢,很难做到实时检测4。近年来,深度学习在目标检测领域取得了突破性进展,使目标检测的精确度和效率得到了较大提升。文献 5 在Faster R-CNN基础上进行改进,将在线挖掘与多部分检测相结合,识别工人是否佩戴安全帽。张业宝等人6提出了一种基于改进SSD的安全帽佩戴检测方法,通过综合不同卷积层的特征图,在多个特征图上生成多个候选框,提升对小目标的检测效果。这2种方法都属于双阶段的目标检测方法,识别效果好,但是速度慢,不适于视频处理。马小陆等人7通过减小模型、改进分类损失、输出端引入跳跃基于轻量化YOLOv5的安全帽检
4、测李延满1,王必恒1,赵羚焱2(1.国电南瑞科技股份有限公司,江苏 南京 210000;2.南京信息工程大学计算机学院,江苏 南京 210044)摘要:配电网运维施工安全智能监控系统中存在大量数据,客观上要求算法具有较高实时性。基于此,本文轻量化改进YOLOv5算法,具体包括改进 K-means算法聚类锚框,采用 Hard-swish激活函数和 CRD损失函数,同时在主干网融合ShuffleNet 结构以及 FPN 模块增加 Attention 机制。该模型 SNAM-YOLOv5(ShuffleNet and Attention Mechanism-YouOnly Look Once ver
5、sion 5)能够显著提高小目标和遮挡目标的检测性能以及处理速度。在基于海思Hi3559A嵌入式平台进行安全帽检测的运行结果表明,该模型优于同类算法,同时具有良好的实时性。关键词:深度学习;配电网运维;施工安全;智能监控;轻量化网络;安全帽检测中图分类号:TP391.4文献标志码:ADOI:10.3969/j.issn.1006-2475.2023.10.009Safety Helmet Detection Based on Lightweight YOLOv5LI Yan-man1,WANG Bi-heng1,ZHAO Ling-yan2(1.Nari Technology Co.,Ltd.
6、,Nanjing 210000,China;2.School of Computer Science,Nanjing University of Information Science&Technology,Nanjing 210044,China)Abstract:There is a large amount of data in the intelligent monitoring system of distribution network,which objectively requiresthe algorithm to have high real-time performanc
7、e.Based on this,the YOLOv5 algorithm is improved in light weight,includingimproving the K-means algorithm clustering anchor box,using the Hard-swish activation function and the CRD loss function,and at the same time integrating the ShuffleNet structure in the backbone network and adopting the Attent
8、ion mechanism in theFPN module.The presented model,SNAM-YOLOv5(ShuffleNet and Attention Mechanism-You Only Look Once version 5),can significantly improve the detection performance and the processing speed of small targets and occluded targets.The results ofsafety helmet detection based on HiSilicon
9、Hi3559A embedded platform show that the model is superior to similar algorithms andhas good real-time performance.Key words:deep learning;distribution network operation and maintenance;construction safety;intelligent monitoring;lightweight network;safety helmet detection计算机与现代化2023年第10期连接等方法,改进YOLOv
10、3算法,增强对安全帽佩戴中小目标的检测。Filatov 等人8则在 YOLOv4 基础上,将 SqueezeDet 和 MobileNets 组合,显著提升安全帽检测算法的精确度。Li等人9在YOLOv5基础上,提出一种分层正样本选择机制,提高模型的拟合度。文献 10-11 通过引入注意力机制和多级特征提高模型的识别率。以上算法均基于视频进行实时安全帽检测,但对于嵌入式系统来说,过于复杂,时间过长。在Jestson Xavier NX设备上,文献 12 提出外接圆半径(Circumcircle Radius Difference,CRD)损失函数和轻量化的特征融合层,提高了模型的处理速度,但是
11、模型的误报率较高。常用深度学习模型包含大量的参数设置和计算量,存在占用网络带宽、延迟高、实时性差等问题,不适于高速率、低成本的移动设备、微型计算机以及嵌入式应用场景。因此,本文基于海思Hi3559A的嵌入式平台,对 YOLOv5 算法进行轻量化改进,提出SNAM-YOLOv5模型,进行配电网运维施工安全的智能监控。1基于深度学习的目标检测算法当前,基于深度学习的目标检测算法是主流算法,分为双阶段和单阶段。通常,双阶段检测方法准确度较高,单阶段检测方法速度更快。双阶段检测算法分为2个阶段,首先产生候选区域,然后对候选区域分类。典型算法主要有 R-CNN13、SPP-Net14、FastR-CNN
12、15、FasterR-CNN16、FPN17、R-FCN18等。其中,Faster R-CNN是其中比较经典的算法,应用RPN网络进行候选区域的提取,以此用来代替之前的选择性搜索,将候选框提取合并到深度网络中,从而使检测速度大大提高。RPN网络的特点在于通过滑动窗口的方式实现候选框的提取,用于目标分类和边框回归。该算法由2个模块组成,包括产生区域推荐的RPN和使用推荐区域的Fast R-CNN检测器。单阶段目标检测算法则将2个步骤合二为一,在特征图上进行密集抽样,产生大量先验框(PriorBox),然后进行分类和回归。常见的单阶段目标检测算法包括 YOLO19、SSD20、RetinaNet2
13、1等。YOLO系列算法借鉴了GoogLeNet22分类网络结构,包括卷积层和全连接层。其中,卷积层用来提取图像特征,全连接层用来预测图像位置和类别概率值。YOLOv523于2020年6月提出,目前该模型实现了速度和准确度的平衡,并得到广泛应用。基于YOLOv5的网络模型包含大量的参数设置和计算量,不适于嵌入式应用场景。一些轻量级的网络模型相继提出,例如 MobileNet24、ShuffleNet25、GhostNet26等。这些模型的运行速度快,占用内存小,但是检测性能相对较低。基于此,本文借鉴ShuffleNet模型,对YOLOv5进行轻量化改进,应用于海思Hi3559A的嵌入式平台,并进
14、行配电网运维施工安全的智能监控。2SNAM-YOLOv5模型YOLOv5的速度和检测率性能俱佳,但是在小目标和遮挡目标识别方面性能有所下降,体量对于嵌入式应用较大。因此,本文拟从3个方面对YOLOv5进行改进,提出 SNAM-YOLOv5(ShuffleNet and Attention Mechanism-You Only Look Once version 5)模型。具体如下:1)Backbone 部分融合轻量型 ShuffleNet 结构,Neck 部分在 FPN 模块增加 Attention 机制;2)应用Hard-swish激活函数和CRD损失函数;3)采用改进K-means算法聚类
15、先验框。2.1轻量化改进的YOLOv5结构YOLOv5 网络结构中包含 Input、Backbone、Neck和Prediction这4个部分,这里给出YOLOv5的基本结构,如图 1 所示。其中 Backbone 部分是特征提取,Neck部分是特征融合。图1YOLOv5网络结构ShuffleNet是一种针对移动设备而设计的轻量化网络,结合深度可分离卷积(Depthwise SeparableConvolution,DW Conv)、通道划分(Channel Split)、通道混合(Channel Shuffle)等操作来提升网络计算效率,减小模型的计算复杂度和参数数量,从而降低内存占用率。对
16、于YOLOv5 Backbone中的CSP1,参考文献 26 结合ShuffleNet中的结构进行改进,得到IS Block(Improved ShuffleNet Block)。这里,在 ISBlock中还融合了GhostNet中的Ghost模块,可以通过少量参数来产生更多有效特征,弥补ShuffleNet融合特征的丢失27。同时,结合 DW Conv 对图 1 中的 CBL(Convn-BN-LeakyReLU)模块进行改进。DW Conv 最早在MobileNet 中提出,在 ShuffleNet中也采用,可以有效降低计算量并保持一定的性能。结合 2.2 节中的Hard-swish 函
17、数,将 YOLOv5 中 的 部 分 CBL 改 为Input6046043FocusCBLCSP1_1CBLCSP1_3CBLCSP1_3CBLSPPBackboneConcatUpsampleCBLCSP2_1ConcatUpsampleCBLCSP2_1CSP2_1CBLConcatCSP2_1CBLConcatNeckPredictionCONVCONVCONV767625538382551919255602023年第10期DBH(DW Conv-BN-Hard-swish)模块,其他CBL改为CBH(Convn-BN-Hard-swish)。在目标检测中,为确保高分辨率输入特征接收完
18、整,通常采取的累积卷层操作会增加网络结构的复杂度。因此,在不堆叠网络结构的前提下,在FPN模块的基础上添加 2 个模块:CEM(上下文抽取模块)和AM(注意力引导模块),即AC-FPN28。CEM模块从多个感受野中探索大量上下文信息,AM模块通过注意力机制来自适应提取显著对象周围的有用信息,其由2个子模块构成,即上下文注意模块(CXAM)和内容注意模块(CNAM)。改进后的轻量型 SNAM-YOLOv5 模型如图 2 所示,红框为本模型中的改进部分。图2SNAM-YOLOv5模型结构2.2激活函数和损失函数YOLOv5 和 ShuffleNet 中使用的激活函数均为Leakly ReLU21。
19、它是一个单调的线性函数,其差为零,所以该函数不能保持负值,因此大多数神经元不能更新。为了解决该问题,Ramachandran等用swish函数代替Leakly ReLU,然而,swish函数的计算量较大。在文献 22 中首次采用了Hard-swish。该函数是非单调和平滑的。非单调性有助于保持一个小的负值,使梯度网络稳定,同时平滑函数也具有良好的泛化能力,并且,与 swish 相比计算量较小。Hard-swish函数可以表示如下:Hard-swish=x(ReLU6(x+3)6(1)这里,将ReLU6的上限设为6。Hard-swish函数可以使边界值更准确,这样有利于网络对小目标和被遮挡物体的
20、检测。在 YOLO 系列算法中采用的损失函数有 IoU、GIoU、CIoU 和 DIoU。YOLOv5 原 算 法 中 采 用GIoU_Loss做边界框的的损失函数。这些损失函数具有尺度不变性、非负性和对称性等优点,但是在某些情况下会出现梯度消失的情况。这里,采用文献 11中提出的CRD边界框回归损失函数,其公式如下:LossCRD=LossCCAR+LossRD(2)其中,LossCCAR和LossRD的定义分别如下:LossCCAR=1-S(B)S(C)(3)LossRD=|rA-rB|(4)在公式(3)中,S()代表矩形框外接圆的面积计算式,B代表预测框外接圆,C代表目标框和预测框之间的
21、最小外接矩形的外接圆。在公式(4)中,rA和rB分别表示目标框外接圆和预测框外接圆的半径。可以看出,CRD损失函数包括外接圆面积比损失函数LossCCAR和半径差损失函数LossRD。CCAR损失函数用于指导预测框的回归方向,RD损失函数则用于增强预测框与目标框的大小和形状相似性。在目标检测的后处理过程中,针对很多目标框的筛选,通常需要NMS非极大值抑制操作。YOLOv4在DIoU的基础上采用 NMS的方式,而 YOLOv5中则采用加权NMS的方式。DIoU_NMS方式对于遮挡重叠物体的识别具有一定的改进作用。本文采用DIoU-NMS进行后期处理。2.3改进K-means聚类算法K-means
22、算法是聚类分析中使用最广泛的算法之一,是基于相似性的无监督算法,目标是将数据集划分为若干个簇,使得簇内的数据点相似度尽可能大,簇间的数据点相似度尽可能小。以各个样本与所在簇质心的均值误差平方和作为聚类效果的评价标准。假设簇划分为(C1,C2,CK),则最小化误差平方和可表示为:J=i=1Kx Cix-ui22(5)其中,ui是簇Ci的均值向量,也称为质心,质心是对聚类中所有点的位置求平均值得到的点。其表达式为:ui=1|Cix Cix(6)传统的聚类方法是使用欧氏距离来衡量差异,其计算表达式为:d(x,y)=(x1-y1)2+(xn-yn)2(7)本文希望在安全帽数据集上聚类提取先验框的尺度信
23、息,以寻找尽可能匹配样本的边框信息,提高边界框的检出率。标准的K-means算法可以直接聚类先验框的宽和高,产生K个宽、高组合的锚框,但尺寸比较大时,其误差也更大。因此引入IoU29使得误差和先验框的大小无关,距离度量表示为:d(b,c)=1-IoU(b,c)(8)其中,c表示聚类时被选作中心的边框,b表示中心之外的其他边框。IoU越大则距离越近聚类效果越好。改进K-means算法过程如下:步骤1 初始化K个聚类中心(从原始数据集中随机选择K个),然后计算所有的先验框到簇集中心的距离,把先验框划分至距离最近的聚类中心所在簇集,并求距离和J1,跳到步骤2。步骤 2 根据所得簇集中位数作为新的聚类
24、中640 x640 x380 x80 x18FocusCBHISBlockCBHISBlockDBHISBlockDBHSPPBackboneConcatUpsampleCBHConcatUpsampleCBHCBHConcatDBHConcatNeckPredictionCONVCONVCONV40 x40 x1820 x20 x18CEMCXAMCNAM李延满,等:基于轻量化YOLOv5的安全帽检测61计算机与现代化2023年第10期心;同时计算新的距离和J2,跳到步骤3。步骤3 计算J,判断J是否小于阈值或循环次数是否大于设定值T,若满足条件,跳出循环,结束聚类;否则跳到步骤4。步骤4
25、根据所得簇集,得到新的聚类中心;同时计算新的距离和J1。本文通过改进 K-means 算法聚类边界框得到 9个先验框,能很好地适应不同尺寸的安全帽,加速自适应anchor重计算,有效降低误检率。3实验3.1基于海思Hi3559A的视频监控系统基于海思Hi3559A的配电网智能视频监控系统由Hi3559A、摄像头、通信模块、报警模块、SD卡等部件构成,如图3所示。图3基于Hi3559A的配电网运维施工安全智能监控系统结构图配电网视频监控终端通过摄像头进行图像数据的采集,然后部署在Hi3559A中的SNAM-YOLOv5对监控图像进行分析,当出现设备故障、火灾隐患、违规操作(如未佩戴安全帽)等,立
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 量化 YOLOv5 安全帽 检测
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。