基于Faster RCNN和YOLOX模型融合的路况检测算法.pdf
《基于Faster RCNN和YOLOX模型融合的路况检测算法.pdf》由会员分享,可在线阅读,更多相关《基于Faster RCNN和YOLOX模型融合的路况检测算法.pdf(5页珍藏版)》请在咨信网上搜索。
1、第2 6 卷第4期2023年8 月扬州大学学报(自然科学版)Journal of Yangzhou University(Natural Science Edition)Vol.26No.4Aug.2023基于 Faster RCNN 和 YOLOX模型融合的路况检测算法汪前进1*,汤栋,汪弋琛,仲兆满1(1.江苏海洋大学计算机工程学院,江苏连云港2 2 2 0 0 5;2.清华大学深圳国际研究生院物流与交通学部,广东深圳518 0 55)摘要:为防止驾驶员误判或忽视交通标志和车辆,提出一种通过线性加权方法融合FasterRCNN(fa s te rregions with CNNfeatur
2、es)和YOLOX-Tiny(you only look once X-Tiny)模型的路况检测算法,结合双目摄像头对检测目标物进行距离检测,以增强模型对道路远处目标的检测能力.实验结果表明,模型融合算法相较于FasterRCNN,每秒传输帧数提升了30.6 顿,与YOLOX-Tiny相比,其目标检测结果的平均精度提升了2 1.9%.关键词:路况检测;深度学习;模型融合;双目测距中图分类号:TP391.41D0I:10.19411/j.1007-824x.2023.04.008文献标志码:A文章编号:10 0 7-8 2 4X(2023)04-0043-05随着我国人均车辆拥有率不断提高,交通
3、道路安全已成为备受关注的重要问题.路况检测是自动驾驶中的关键技术之一,可以帮助车辆识别路面标志牌、行人和其他车辆等目标,有效实现安全驾驶.针对目标检测问题,目前已有若干种结合深度学习算法的解决方案1-41.在路况检测方面,Kumar等5提出了一种基于多层卷积神经网络的改进SSD(single shot multiboxdetector)算法,通过选取最佳长宽比值卷积核,有效提高了目标检测的精度,但由于算法依赖于默认框对场景的适应度,难以保证算法的实时性;杨薇等6 提出基于FasterRCNN的车辆实时检测改进算法;Tabernik等7 则改进了MaskRCNN算法,提出一种基于几何外观和视觉失
4、真的分布式数据增强技术,使其适用于大规模路标检测和识别问题,但由于分类网络丢失数据使算法的精度有所下降;Li等8 提出了一种基于改进的Faster-RCNN模型的多物体检测和识别的交叉层融合方法,适用于复杂交通环境,该方法利用VGG16的五层结构获取更多的特征信息,在小物体目标检测方面取得较高精度,但是未能解决Faster-RCNN对于全局信息提取与近物识别效果不佳的问题;Carrasco等9提出了从全息视角瞄准微小道路目标的识别方法,结合多尺度模块和空间注意机制调整了YOLOv5模型,从而提升了YOLO模型对小目标的识别精度,但该算法仅针对特定场景的检测有较大的精度提升,鲁棒性不强;王超等1
5、0 提出采用深度学习YOLOv2模型的方法将目标检测视作回归问题,获得交通标识的类别和位置;邹雁诗11以MobileNets作为特征提取网络,提出了协作驾驶场景目标检测模型.现有研究多通过单一类别模型完成目标检测,虽然通过改进模型在一定程度上提高了检测效果,但在实际路况监测中难以兼顾检测精度与效率.在以YOLO为代表的单阶段目标检测算法和以Faster-RCNN为代表的二阶段目标检测算法中,YOLO对近距离目标检测的精度和速度较好,但对远距离目标物的检测效果不佳;而FasterRCNN对远距离目标的检测具有较好的精度,但对全局信息提取与近物识别效果弱,且两阶段算法耗时长,难以实现实时检测.为了
6、克服单一算法目标检测的局限性,本文融收稿日期:2 0 2 2-10-0 8.*联系人,E-mail:q i a n j i n w j o u.e d u.c n.基金项目:国家自然科学基金资助项目(7 2 17 40 7 9)。引文格式:汪前进,汤赞栋,汪弋琛,等基于FasterRCNN和YOLOX模型融合的路况检测算法J.扬州大学学报(自然科学版),2 0 2 3,2 6(4):43-47.44合FasterRCNN和YOLOX-Tiny模型设计路况检测算法,对交通标识牌和车辆进行目标检测,并基于双目摄像头进行车辆距离检测,以期通过模型融合的方法提高驾驶安全预警反馈的速度和准确性1模型融合
7、目标检测算法模型融合的主流算法有 voting、a v e r a g i n g、b o o s t i n g、b a g g i n g、r a n d o m f o r e s t 和 stracking等,其中voting和averaging是基于结果选择最优解的模型,其余则是基于样本训练融合产生的模型,前者更倾向于异质集成,后者更倾向于同质集成12.由于两类算法本质差异较大,产生结果的精度和速度也不同,为了提升性能,本文选取加权平均法进行模型集成,即H()=,h,(),式中H()表示融合模型预测结果,表示输人图像,T为个体学习器的数目,w;,h;分别为第i个个体学习器的权重和预测
8、结果。图1为具体的模型融合结构图.先将像素为PXQ的图像按比例缩放至MXN,然后分别输入YOLOX-Tiny和FasterRCNN模型中进行检测,再将各自检测结果按预设权重计算出最终结果.YOLOX-Tiny切片(M/2)x(N/2)12CSMSigmoid函数函数卷积PXMxNYOLOX-Tiny是YOLOX轻量化版本,结构精简,检测速度快,其算法框架主要分为骨干网络、颈部和检测头.相较于标准模型,此模型弱化了Mosaic并将Mix移除,在性能较差的硬件平台也能有很好的检测效果,提高了算法的兼容性,该模型由convolutional spatialmodule(CSM),c o n v o
9、l u-tional spatial unit(CSU)和 convolutional component unit(CCUCR)三部分组成.CSM 由卷积层和Sigmoid函数及Mul函数组成,用于提取图像的低级特征,如边界和色彩;CSU为特征提取层,包括2 个CSM层和Add函数,可提取图像的高级特征,如形状和结构;CCUCR为分类层,用于识别目标的不同部分,以便确定目标的位置和类别.在如图1所示的YOLOX-Tiny网络结构中,将大小扬州大学学报(自然科学版)CSMCSMX2X4CSMX2CSUMulCSMCSM函数FasterRCNN(VGG16)区域候选网络特征提取网络711卷积13
10、个卷积13个线性整流特征图4个池化分类回归输出概率向量Fig.1Model fusion structure diagram第2 6 卷CCUCRConcatX2特征融合+CCUCRTranspose4转置CCUCRAddCSMReshape函数33卷积+线性整流11卷积边框回归Softmax函数图1模型融合结构图输出CSUConcatReshapeSoftmaxReshape函数函数候选ROI池化全连接77区域特征图权重为0.7输出权重为0.3第4期为MXN的图像经切片操作后输入特征提取网络,经2 个CSM层提取图像特征后分别使用4个CSM层、2 个CCUCR层和2 个CSM层、4个CCUC
11、R层进行分类,在所有CCUCR层之后均采用上采样以确保细节特征和分辨率,从而更好地实现小物体目标检测效果,最后将特征融合并转置输出。Faster RCNN模型13是RCNN系列算法中性能最佳的通用目标检测算法之一.在驾驶过程中,驾驶员须预知前方道路状况,而大多数目标检测算法对于小目标的检测效率都较低,甚至不能识别14本文采用FasterRCNN网络结构以大幅度提高小目标检测精度和降低容错率.在如图1所示的FasterRCNN网络结构中,主要包括特征提取网络、区域候选网络(regionproposalnetwork,RPN)、兴趣域(regionof interest,RO I)池化、分类回归等
12、4个模块.首先将大小为MXN的图像输人特征提取网络,使用13个卷积、13个线性整流和4个池化提取图像的特征图;然后将特征图输人RPN,经过3X3卷积生成多个兴趣域.RPN结构中通过Softmax函数对锚点进行正负分类,然后计算锚点的边界框回归偏移量,以获得精确的候选值.候选层则负责综合正锚和对应的边界框回归偏移量获取修正后的候选值,剔除过小和超出边界的候选值.修正后的候选值被投影到特征图上,再通过ROI池化层缩放为7 7 大小的区域特征图,然后将区域特征图展平到全连接层,通过Softmax函数归一化,计算类别概率向量,并结合通过边框回归修正物体的精确位置,输出兴趣区域中物体所属的类别以及物体在
13、图像中的精确位置.YOLOX-Tiny对近距离目标具有较高的检测精度和速度,但可能无法检测远距离目标,故本文模型在进行远距离目标检测时主要依靠FasterRCNN模型,进行近物识别时主要依靠YOLOX-Tiny模型.采用长沙理工大学CCTSDB数据集(http:/w w w.s h u j u j i s h i.c o m/d a t a s e t/b 36 0 4431-16e2-4771-be74-ae694a2bb4c3.html)测试并确定两种模型的权重.当目标处于适中距离时,测试YOLOX-Tiny模型的权重在0.6 0.9范围内取不同值时融合模型的检测精度平均精度(meanav
14、erage precision,m A P)和每秒传输顿数(frames persecond,FPS)的结果见表1.表1结果显示,当YOLOX-Tiny权重为0.7 时,融合模型的效果最好.2路况检测路况检测具体流程如图2 所示.首先通过双目摄像头进行路况拍摄,然后将拍摄截图按照预设尺寸进行缩放后输人已训练的模型中,获得目标物的分类和坐标,最后根据目标物坐标计算距离,当检测距离小于安全距离时,通过语音提示驾驶员.考虑到目标检测算法计算资源消耗较大,如果选用阴影检测或图像处理后再进行检测,会导致系统整体响应速度大幅降低.实际路况检测时,模型时效性远大于精确性,宜选用简单模型以保证检测时效性.图3
15、是本模型通过双目摄像头检测目标物距离的原理图.以地平面上点O。为中心建立Oaayaa坐标系,左右相机分别位于Oacaya平面上与ya轴等距离的两侧,相机离地面高度均为h.左右相机光心分别为O和O,基线b=|OO.l.相机的成像平面经旋转后位于镜头前方,分别以左右相机成像中心F和F建立Fiaiy和Fryr坐标系,焦距为f.三维空间目标物的P点在左右相机的像点分别为P,和Pr.视差d=|OO.|IPP|,故IPP=IOO.l一d=b一d.令PP为目标P到双目摄像头的垂直距离,记作Z,该垂线交PiP,于Q,PQ|=f.根据相似三角形理论,IPiP,/IPQ|=IOO./IPP|,即(6 d)/(Z-
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于Faster RCNN和YOLOX模型融合的路况检测算法 基于 Faster RCNN YOLOX 模型 融合 路况 检测 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。