基于改进YOLOv5的轨道异物入侵检测算法研究.pdf
《基于改进YOLOv5的轨道异物入侵检测算法研究.pdf》由会员分享,可在线阅读,更多相关《基于改进YOLOv5的轨道异物入侵检测算法研究.pdf(8页珍藏版)》请在咨信网上搜索。
1、基于改进 YOLOv5 的轨道异物入侵检测算法研究王瑞峰*,陈小屹(兰州交通大学自动化与电气工程学院,甘肃兰州730070)摘要:针对铁路场景图像不清晰,以及存在小目标和被遮挡目标未被检测出等问题,提出一种基于改进YOLOv5 的异物目标检测算法.首先,计算图像中的直线特征极大值调整自适应参数,利用边界点权重区分出轨道位置;然后,采用 CLAHE(ContrastLimitedAdaptiveHistogramEqualization)算法增强画面的对比度,降低环境对检测结果的影响;最后,在原有 YOLOv5 算法的基础上引入卷积块注意力模型,提高特征提取能力,改善遮挡目标和小目标的漏检问题,
2、用 CIOU 损失函数替代 GIOU 损失函数作为边界框回归损失函数,加快模型的收敛速度并提高边框定位精度.实验结果表明,模型平均检测精度达到了 0.941,检测速度也达到了 39帧/s,可以快速且准确地检测到铁路上存在的异物,满足实时目标检测的要求.关键词:YOLOv5;轨道异物入侵;图像分割;深度学习中图分类号:TP391文献标志码:A文章编号:02587971(2023)04079908由于自然和人为因素,铁路限界内时常出现落石、滚木、动物以及行人,对设备及人员安全造成威胁.检测系统及时发现铁路异物,准确识别异物并进行报警,对保证有关部门快速高效地处理突发事件具有重要意义.铁路异物入侵检
3、测方式分为接触式和非接触式.一般采用非接触式,目前常见的检测方法包含视频检测法、雷达检测法、超声检测法和红外线屏障检测法1.其中视频检测法可以检测出异物的位置、大小,具有直观性,且检测精度更高.文献 2基于机器视觉与嵌入式技术对获得异物进行分类,使用卡尔曼滤波进行行为分析,以滤除干扰.文献 3在背景差分的基础上,提出基于前景目标统计分布的铁路背景更新方法.文献 4-5 将深度学习中的卷积神经网络应用到异物检测中,通过训练得到适用的模型.但上述方法中,传统视觉算法易受到光线和气候变化的影响,背景差分的方法也普遍存在误报率高,且不能确定侵限异物的种类.深度学习在铁路侵限研究中正成为一个新的研究方向
4、,但卷积神经网络(ConvolutionalNeuralNetwork,CNN)作为双阶段检测算法,需要预先设置大量先验框,检测速度较慢且算法复杂.YOLO 算法作为单阶段检测算法,大大提高了检测速度6,但准确度有待提升.在此基础上增加了 Darknet-53 网络和 FPN网络,以及增加尺度特征图后得到 YOLOv37,检测精度有所提高,但对小目标效果不明显.而对网络结构中的 4 个部分都做了改进后的 YOLOv5 模型检测速度和精度相比前文提出的方法效果更好8.本文提出在 YOLOv5 里加入卷积块注意力模型9,使入侵目标获得更多的关注,提高异物的表征能力,忽略不必要特征,避免小目标和被遮
5、挡目标未被检测出来造成遗漏,从而提高模型判别异物的精确度.改进 YOLO 算法中的损失函数,考虑到不同图像会出现相同损失函数的情况,提出 CIOU-Loss,降低网络损耗,提高收敛速度.输入模型前通过 CLAHE 提高图像的对比度,防止因图像不清晰未检测到异物.本文在原有 YOLOv5 的基础上,考虑实时目标检测中的各种因素,改进网络结构,提高检测精度,加快收敛速度.1轨道入侵区域划定通过对铁路场景进行观察,铁路尽头为中心呈放射状,只要加强区域间的直线特征,就能更好区分轨道区域10.所以选用霍夫变换进行直线检测,收稿日期:2022-07-23;接受日期:2022-12-20;网络出版日期:20
6、23-01-09基金项目:国家自然科学基金(61763025).*通信作者:王瑞峰(1966),女,内蒙古人,教授,主要研究交通信息工程及控制.E-mail:.云南大学学报(自然科学版),2023,45(4):799806JournalofYunnanUniversity:NaturalSciencesEditionDOI:10.7540/j.ynu.20220378得到霍夫矩阵和峰值,调整高斯卷积核角度,加强边界点的权重.选用 Canny 算子进行边缘检测,该算法具有良好的边缘定位精度和抗噪性.边缘检测使图像特征信息简化,并且增加纹理通道,提取到有用的信息.为寻找铁路场景中最强的直线特征,即
7、共线点最多的直线的方程参数,将边缘检测结果(图 1).进行霍夫变换得到霍夫变换矩阵和峰值点(选取 4 个),即直线特征分布图,如图 2 所示,右侧边栏为灰度值,灰度值越高图像越亮.图1边缘特征图像Fig.1Theedgefeaturemap图2直线特征分布图Fig.2Linearcharacteristicdistributionmap90霍夫变换中使用的倾角定义为,范围为,高斯卷积核里的倾角定义为,范围为 0180.直角坐标系下与极坐标下交点坐标直线方程参数的对应关系如下所示:y=kx+b=1tanx+sin.(1)=2根据霍夫变换结果可知共线点最多的直线倾角分别为70、78、85和 88.
8、两者转换关系为,高斯卷积核旋转的角度为 160、12、5和 2.选取卷积核后,将RGB 彩色模型转化为 HIS彩色模型,能够较好地模拟人的色彩感受,因而在特征矢量中加入 H(色调)、S(饱和度)、I(亮度),包括像素点的纹理特征、色调、饱和度和亮度等 4个通道.图像中每个像素在各个通道内进行高斯卷积运算,计算公式如下:fpc(x,y,)=CG(x,y,C),(2)式中:C 为通道,为卷积核的倾斜,(x,y)为像素的空间坐标.在得到边界点权重后,经过 Sigmoid 运算后筛除掉弱边界点权重,最终得到碎片区域,经过 MaskR-CNN11识别得到需要的轨道入侵区域.轨道区域识别过程图如图 3 所
9、示.2改进的 YOLOv5YOLOv5 网络结构主要由输入端、Backbone、Neck、Prediction等 4 部分组成,主要改进 Back-bone 部分.Backbone 增加了 Focus 的切片操作,并且 YOLOv5 设计了两种 C3 结构,用于特征提取.但经过两层的 C3 模块,特征信息丢失12,导致目标检测时轨道上的小目标和遮挡目标会被遗漏.图 4 为改进后的 YOLOv5 网络结构图,在 Backbone图3轨道区域识别过程图Fig.3Processdiagramoftrackareaidentification800云南大学学报(自然科学版)http:/第45卷的 C3
10、 模块后加入 CBAM.2.1融合卷积块注意力模型为了改进原模型的缺陷,在 Backbone 的 C3 模块后引入 CBAM,让特征覆盖更多的区域,从而提高识别目标的概率.利用注意力机制增强了网络的表征力,重点突出需要识别物体的特点.CBAM 主要是通过通道和空间两个维度进行特征提取(图 5).经过实验发现两个模块顺序排列,且通道模块位于空间模块前效果更好.图 5 中,蓝色方框中的部分为通道注意力,红色方框内的部分为空间注意力.特征图 F 输入后,先进入通道注意力,分别进行 GAP 和 GMP,得到的特征图再分别输入到两层神经网络,神经元个数分别为为 11C/r(将 C 压缩到 C/r,用于计
11、算量减少,经过实验,r 为 16 可实现性能和计算量的平衡)和 11C,通过加和操作和 sigmoid 操作,得到通道注意力 MC,如下所示:MC(F)=(MLP(AvgPool(F)+MLP(MaxPool(F)=W1W0Fcavg+W1(W0(Fcmax),(3)式中:MLP 为通道维度内的多层感知机,AvgPool(F)和 MaxPool(F)为平均池化和最大池化,avg 为平均值,max 为最大值.将 MC和输入 F 做乘法操作,得到空间通道的输入.同样分别进行 GAP 和 GMP,得到 HW1 的特征图,两者堆叠得到 HW2 特征图;接着经过卷积和ReLU激活函数,降低维度为 HW1
12、;最后将经过Sigmoid 标准化处理后的特征图与输入特征图进行合并,从而在空间和通道两个维度上完成对特征图的重新标定,如下所示:MS(F)=(f77(AvgPool(F);MaxPool(F)=f77Fsavg;Fsmax.(4)数值表征了特征图该点的重要程度,数值大的地方更易受到关注,通过感受野反推回原图像,即表示了该区域的重要程度.2.2优化损失函数为了更准确地了解模型检测效果,需对损失函数进行改进.在 YOLOv5 模型中,使用GIOU 计算边界的回归损失,计算公式如下:图4YOLOv5 网络结构改进图Fig.4ImprovetheblockdiagramoftheYOLOv5netw
13、ork图5CBAM模块Fig.5CBAMmodule第45卷王瑞峰等:基于改进 YOLOv5 的轨道异物入侵检测算法研究801SGIOU=SIOUACuAC,LGIOU=1SGIOU,(5)式中:IOU 为衡量真实目标框与实际检测目标框差异的一种参数,GIOU(GeneralizedIOU)为泛化的IOU,AC为两个框的最小外接矩形,u 为并集.但是,GIOU 也存在缺点:当两个预测框高宽相同,且处于同一水平面时,GIOU 就退化为 IOU.此外,GIOU 和 IOU 还存在收敛较慢、回归不够准确的缺点.所以提出了 DIOU,解决了目标实际框与目标预测框重合位置不相同但 IOULoss 和GI
14、OULoss 结果一样的情况,如图 6 所示,实线框为目标框,虚线框为预测框,预测框位于真实框内部时,GIOU 值相同,但图 6 内预测框位置并不一致.其计算公式如下:SDIOU=SIOU2(b,bgt)c2=SIOUd2c2,(6)LDIOU=1SDIOU,式中:DIOU(DistanceIOU)为改进的 IOU,gt(gro-undtruth)为真实框,b 和 bgt分别代表预测和真实中心坐标的参数,d 为两个矩形中心点连接线,是两个中心点距离,c 为两个矩形的最小外接矩形对角线.图6预测框和真实框的位置关系Fig.6Positionalrelationshipbetweenpredict
15、ionboxandrealbox如何将损失函数降到最低,需要考虑长宽比、重叠面积和中心点距离 3 个参数13.CIOU 相比DIOU 增加了检测框尺度和长和宽的 Loss,预测框会更接近真实框.其计算公式为:SCIOU=SIOU2(b,bgt)c2+v,v=42arctanwgthgtarctanwh2,(7)=v(1SIOU)+v,LCIOU=1SCIOU,式中:CIOU(CompleteIOU)为改进的 IOU,v 和 为长宽比,w、h 和 wgt、hgt分别代表预测框的高、宽和真实框的高、宽.2.3图像特征增强为应对铁路监控拍摄时光线不强,存在恶劣天气影响而导致图像不清晰的情况,需对图像
16、进行特征增强.直方图均衡是一种简单的方法,自适应直方图均衡化(AdaptiveHistogramEqualization,AHE)是在图像灰度化后,计算各个灰度值的概率并得到分布图像,通过其分布函数映射使得灰度概率密度均匀分布14.然而,这是一种全局处理方法,它不能很好地处理太亮或太暗的区域,会使图像噪声增大.所以在此基础上,将限制CLAHE 算法应用于图像增强中,它是在 AHE 的基础上增加了阈值区域.在直方图中,超过阈值的像素数据被均匀地分布在其他区域,这不仅保证了直方图的区域不变,而且限制了变化的范围.计算过程如下:步步骤骤 1将原图像进行扩充并划分为长乘宽为 48 的格子.步步骤骤 2
17、设每个格子的面积为 S,初始上限阈值 T 为 2.5,计算公式为:T=max(1,T S/256).(8)步步骤骤 3获取图像直方图.步步骤骤 4在此基础上,采用预先设置的阈值T,对直方图进行分割,使大于阈值的像素数量再进行分配.步步骤骤 5对对比度限制后的直方图进行直方图均衡获取映射函数,函数表达式为:Si=T(ri)=k1i=0nin,i=0,1,2,n1,(9)式中:T 为变换函数,ri和 Si分别为原图像和映射后的灰度值,n 为像素总数,ni为出现 k 灰度级的像素数.步步骤骤 6利用映射函数处理原图像.CLAHE 处理后效果图如图 7 所示,可以看出,经过直方图均衡后的图像清晰度明显
18、提高,为后续异物的准确识别奠定了良好的基础.3仿真及结果分析3.1实验环境与模型训练实验中使用的操作系统为 Ubuntu20.04,CPU 型号为 Intel(R)CPUE5-802云南大学学报(自然科学版)http:/第45卷2620v32.4GHz,GPU 为 GeForceGTX1080Ti,测试框架为 Pytorch.由于能获取的铁路异物照片较少,为了使实验数据结果更准确,将 1000 张铁路异物图片添加到PascalVoc2012 数据集中.但收集到的数据集无法直接用于模型训练,所以采用 labelimg 对数据进行标注,指定图片中目标的位置和标签,并保存成xml 格式.训练集和测试
19、集的比例设定为 91.实验的迭代次数设置为 300,迭代批量为 64,epoch 为 3,动量参数为 0.92,优化器选择 Adam.训练时使用 Warmup 训练预热,在前期为了防止过拟合现象,避免模型震荡,选用较低的学习率,为0.001.训练一段时间后,为加快模型收敛,将学习率调高至 0.2.之后为了使模型继续更新,利用余弦退火使其不陷入马鞍面.3.2评价指标及结果分析本文采用平均精度均值 m(meanaverageprecision,mAP)、精确率 P(preci-sion)、召回率 R(recall)、检测速度以及损失函数CIOU_Loss 这 5 种评价指标评估模型的性能.检测速度
20、定义为每秒可以处理的图片数,损失函数计算公式为式(7),其余指标的计算公式如下:m=Ki=1AiK,(10)A=w10PdR,(11)P=TPTP+FP,(12)R=TPTP+FN,(13)式中:A 为插值后的 precision-recall 曲线下的面积,但只计算了一类;K为种类数;m 为目标检测上所有类的 A 的均值;TP代表 IOU 大于设定阈值的检测框数目;FP代表 IOU 小于设定阈值的检测框数目;FN代表漏检的目标数目15.实验中阈值设定为 0.9,P 反映了模型检测的准确度,R 反映了模型是否将目标检测全部检测到无遗漏的情况.图 8、图 9 显示的是经过改进后的模型召回率和精确
21、率.从图 8 中可以看出,YOLOv5 在训练 50轮后召回率达到 0.8 左右,100 轮后达到 0.85 左右,而经过模型改进后召回率在训练 50 轮后也到了0.89 左右,100 轮后达到 0.91 左右.最终经过改进图7不清晰图像处理效果对比图Fig.7Comparisonofdrawingunclearprocessingeffect图8改进前后召回率变化对比曲线Fig.8Changecurveofrecallratebeforeandafterimprove-ment图9改进前后精确度变化曲对比曲线Fig.9Change curve of accuracy before and a
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 YOLOv5 轨道 异物 入侵 检测 算法 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。