基于网格分类与纵横向注意力的城市道路车道线检测方法.pdf
《基于网格分类与纵横向注意力的城市道路车道线检测方法.pdf》由会员分享,可在线阅读,更多相关《基于网格分类与纵横向注意力的城市道路车道线检测方法.pdf(12页珍藏版)》请在咨信网上搜索。
1、交通信息与安全2023 年3 期第 41卷总 244期基于网格分类与纵横向注意力的城市道路车道线检测方法*常振廷1肖智豪2张文军3张荣辉4游峰2(1.广州市公共交通集团有限公司广州 510055;2.华南理工大学土木与交通学院广州 516641;3.东莞市公安局特警支队广东 东莞 523111;4.中山大学广东省智能交通系统重点实验室广州 510275)摘要:车道线检测是汽车安全辅助驾驶系统的基础模块,在城市道路场景下车道线存在受碾压致特征缺失、车辆间相互遮挡以及光照环境复杂多变等问题,本文提出基于网格分类与纵横向注意力的车道线检测方法。提取道路图像的全局特征图,将其划分为若干网格,计算网格中
2、车道线的存在概率;通过将车道线检测转化为网格位置的分类,定位每条车道线的特征点;构建基于Ghost模块的主干网络,结合车道线的形状特征,引入纵横向注意力机制,通过增强车道线纹理特征和融合位置信息,获取缺失的细节特征;利用三次多项式,拟合车道线特征点,修正车道线的检测结果。基于TuSimple与CULane数据集,在ResNet18、ResNet34和Dark-Net53中嵌入纵横向注意力模块,并开展对比实验。结果表明:在TuSimple数据集上,嵌入纵横向注意力模块后,模型精度均提升了约0.1%,与其他模型相比,Ghost-VHA模型的准确率为95.96%。在CULane数据集上,嵌入纵横向注
3、意力模块可提升精度约 0.65%,与其他模型相比,Ghost-VHA 的F1分数为 72.84%,提升了0.54%。在TuSimple与CULane数据集上,Ghost-VHA处理尺寸为288 px800 px的图像仅需4.5 ms,具有良好的准确率和实时性。在CULane数据集上,网格列数量为300时效果最好,在TuSimple数据集上,网格列数量为50时效果最好。关键词:智能交通;车道线检测;注意力机制;网格分类;环境感知中图分类号:U471.15文献标识码:Adoi:10.3963/j.jssn.1674-4861.2023.03.010A Method for Detecting Ed
4、ge Lines of Traveling Lanes ofUrban Roads Based on Grid Classification andVertical-horizontal AttentionCHANG Zhenting1XIAO Zhihao2ZHANG Wenjun3ZHANG Ronghui4YOU Feng2(1.Guangzhou Transportation Group,Guangzhou 510055,China;2.School of Civil Engineering and Transportation,South China University of Te
5、chnology,Guangzhou 516641,China;3.Special Police Detachment of Dongguan Public Security Bureau,Dongguan 523111,Guangdong,China;4.Guangdong Key Laboratory of Intelligent Transportation System,Sun Yat-sen University,Guangzhou 510275,China)Abstract:Detecting edge lines of traveling lanes is fundamental
6、 to assisted vehicle safety-assisted driving systems.Due to the lane lines often exhibit missing features due to obstructions from vehicles and the complexities of the收稿日期:2022-03-29*国家重点研发计划项目(2019YFB1804205)、国家自然科学基金项目(52172350)、广州市重点领域研发计划项目(202206030005)、广东省自然科学基金项目(2021B1515120032)资助第一作者简介:常振廷(
7、1984),硕士,高级工程师.研究方向:交通大数据、自动驾驶与车路协同等.E-mail: 通信作者:游峰(1977),博士,副教授.研究方向:车路协同与交通安全控制、汽车安全辅助驾驶等.E-mail:920引言自动驾驶汽车可以承担部分或全部的驾驶任务,使驾驶人从复杂的驾驶操作中解脱出来,从而提高行车安全性1。自动驾驶车辆采用摄像头、激光雷达、毫米波雷达等多种车载传感器感知环境。环境感知对象主要包括周边物体、驾驶状态、驾驶环境,以及行驶路径。其中车道线检测是自动驾驶车辆与辅助驾驶系统中必不可少的环节,快速、准确地检测车道线在协助智能车辆路径规划和偏移预警等方面尤为重要。车道线检测在自动驾驶系统中
8、具有关键作用,然而在城市交通场景中面临着诸多挑战。由于城市道路复杂的交通状况,车道线检测更加困难。一方面,环境条件的限制会降低车道线的可见度,例如,光照条件差、旁车或行人的遮挡,以及地面标志的干扰等,导致车道线被截断或被遮挡。另一方面,车道线具有连续性的结构特征,近端和远端目标的尺度差异较大,使用常规的检测模型难以准确检测整条车道线。尽管基于深度学习的目标检测模型在高速公路场景中表现出良好的性能,但在城市道路场景中仍然存在误检和漏检的问题。因此,研究复杂道路场景下的车道线检测对于推动自动驾驶技术的实际应用和提高交通安全具有重要意义。1研究现状车道线检测难点主要是要面对各种复杂的道路场景,如车道
9、线遮挡、缺失、夜间、眩光,以及弯道等2。此时车道边界特征不明显,检测时易出现误检、漏检的情况。常见的车道线检测方案主要基于传统计算机视觉,近年来涌现了诸多基于深度学习的检测方法以替代传统方法。基于传统计算机视觉的车道线检测方法主要依赖于手工特征提取,当前广泛使用的方法可分为基于道路特征和道路模型2种3:基于道路特征的检测方法利用车道线与道路之间的物理结构差异对图像进行分割和处理,突出道路特征,实现车道线检测;基于道路模型的检测方法利用不同的道路图像模型(直线、抛物线、复合型),对模型中的参数进行估计与确定,最终与车道线进行拟合4。传统的车道线检测方法需要人工对道路场景进行特征提取和模型建立5。
10、而车道线种类繁多,道路结构复杂,传统方法工作量大且只针对特定的道路场景,在实际的复杂场景中难以适用。随着深度学习的兴起,卷积神经网络(convolu-tional neural networks,CNN)将视觉理解推向了新的高度。近年来,基于深度学习的车道线检测方法逐渐取代了传统方法。一方面,车道线数据集不断扩充,涵盖更多场景以提高模型的鲁棒性;另一方面,研究者探索特征提取和增强方式,以提高模型的学习能力。当前,基于深度学习的车道线检测方法可细分为基于语义分割、基于关键点和基于曲线拟合的方法。基于语义分割的方法将每个像素点分类为车道lighting conditions under vario
11、us urban settings,a method for detecting edge lines of traveling lanes of urban roadsbased on grid classification and vertical-horizontal attention is proposed.The global feature maps are extracted fromthe road image and divided into multiple grids.Subsequently,the probability of the presence of edg
12、e lines of travel-ling lanes within each grid is calculated.By transforming the task of lane line detection into the grid position classifi-cation,the feature points associated with each lane line are accurately identified.The Ghost module is employed asthe backbone.Additionally,vertical-horizontal
13、attention(VHA)is introduced,enhancing lane line texture features,incorporating location information,and recovering missing details.The detection results are rectified by fitting thelane line feature points using cubic polynomials.The vertical-horizontal attention modules are embedded inResNet18,ResN
14、et34,and DarkNet53 to evaluate the proposed approach.The TuSimple and CULane datasets areutilized for conducting comparison experiments.Study results show that based on the TuSimple dataset,embed-dingthe VHA module improves the accuracy by about 0.1%.Compared with other models,the accuracy of propos
15、edGhost-VHA is 95.96%.On the CULane dataset,embedding the VHA improves the accuracy by about 0.65%,andthe correspondingF1score of Ghost-VHA is 72.84%,which is 0.54%higher than other models.Analysis of the re-sults across nine urban scenarios reveals that the ground sign interference scenario exhibit
16、s the highestF1score,reaching 85.7%.Furthermore,the Ghost-VHA method demonstrates excellent real-time performance by processinga 288 px800 px image within a mere 4.5 ms based on the TuSimple and CULane datasets while maintaining satis-factory accuracy.Based on the CULane dataset,this model works bes
17、t when the number of grid columns is 300 andbased on the TuSimple dataset,this model works best when the number of grid columns is 50.Keywords:intelligent transportation;lane lines detection;attention mechanism;grid classification;environmentalperception基于网格分类与纵横向注意力的城市道路车道线检测方法常振廷肖智豪张文军张荣辉游峰93交通信息与
18、安全2023 年3 期第 41卷总 244期线与非车道线。例如,Lee等6针对雨天和暗光场景下的车道线检测问题进行了研究,提出了基于车道标志与车道线相结合的多任务网络VPGNet(vanish-ing point guided network),在各类场景下有较高的鲁棒性,但网络实时性较差,仅20 FPS(frames per sec-ond)。为了更有效地利用视觉信息,Pan等7通过将分割模块中的逐层卷积运算转化为逐片卷积来实现特征映射和信息传递,可以较好地解决结构化道路上的车道线检测问题,但其速度较慢且缺乏鲁棒性。部分学者探索可实时应用的轻量级方法,例如,Paszke等8提出了高效神经网络
19、(efficient neural net-work,ENet),ENet由1个主分支和多个卷积扩展分支组成,具有简单高效的特点,适合用于大规模计算。Hou等9提出了自我注意蒸馏(self attention dis-tillation,SAD),SAD是注意力提取机制,通过SAD模块将网络中的浅层特征与高层特征进行融合来提高整体特征表达能力。上述2种方法均需要与其他模块结合使用,以兼顾车道线检测的速度和准确性。杨鹏强等10提出了引入注意力机制的结构重参数 化 VGG(structuralreparameterizationVGG,RepVGG)主干网络11,并设计辅助分割分支和偏移补偿分支提
20、升车道线局部特征和细节。基于关键点的方法根据车道线的几何特征选取关键点,以关键点代表车道线的位置,从而实现车道线检测。吕川12在图像的纵轴方向设定相等间隔的横向辅助线,辅助线与车道线的交点即为该车道线的关键点。Ko等13提出关键点估计和实例分割相结合的车道线检测方法 PINet(point instance net-work),网络中堆叠若干个沙漏模块14,可以根据目标环境的计算能力来选择模型的大小,缺点是网络过于臃肿,在GTX2080TI上为25FPS,加上后处理仅10FPS。车道线具有光滑连续的特性,基于曲线拟合的方法预先计算车道线曲线的参数,通过回归参数从而检测车道线形状。Tabelin
21、i等15用多项式来表示车 道 线,提 出 PolyLaneNet(polynomial regressionlanedetection),其由骨干网络与全连接层组成,用于回归多项式的系数。PolyLaneNet无需后处理,推理速度可达115FPS。为进一步提高多项式曲线方法的精度,Fan等16采用了Bzier曲线拟合方法,模型输出Bzier曲线的4个控制点,以及车道线的存在性,轻量版可达213FPS。该类方法具有速度快的优势,但对于车道线模糊、遮挡或缺损,检测误差较大。车道线检测技术的相关研究已经取得了显著的进步和较好的效果,但是仍然存在一些问题:受环境影响较大,传统计算机视觉的车道线检测方法
22、对于夜间和眩光等复杂场景检测的鲁棒性差,仅在特定场景下具有较好的检测精度;算法实时性欠佳,深度网络涉及大量卷积运算,尤其是像素级的语义分割,网络越深,需要的设备算力越强;适用的场景有限,多数算法仅适用于车道线清晰的结构化道路,对于拥堵、夜间和车道线缺失等场景的鲁棒性欠佳。针对上述问题,本文提出基于网格分类与纵横向注意力的车道线检测算法。为提高模型运算效率,以网格分类取代语义分割,利用图像全局特征检测“语义”存在的车道线;为减少模型参数量,将Ghost模块堆叠作为骨干特征提取网络;为解决复杂场景下车道线特征提取,提出了纵横向注意力(verti-cal and horizontal attenti
23、on,VHA)模块,分别从特征图的纵向和横向像素中有效地提取车道线的纹理和位置信息,拥有提取车道线多尺度特征的能力而无需大量计算;通过三次多项式将离散的车道线特征点拟合成连续的曲线,可对异常检测点进行修正。2车道线检测算法设计车道线检测流程见图1。首先,对车载相机采集的车道线图像进行预处理,经过特征提取网络获得车道线的特征图;然后,通过网格分类的方法逐车道线逐行进行遍历,寻找车道线特征点的位置;最后,利用三次多项式将检测到的特征点拟合成连续的车道线。此节将介绍网格分类方法、车道线特征点位置判断,以及车道线拟合模型设计。2.1基于网格分类的车道线特征点位置判断本文采用网格分类17的方法以快速地检
24、测车道线。该方法基于图像全局特征,对特征图进行逐行分类、逐网格选择,以定位车道线特征点位置。划分车道线图像为若干网格,逐行判断网格中车道线的存在概率,依次定位每条车道线特征点,从而将车道线检测转化为网格位置分类。车道线检测原理见图2。其中,W,H分别为图像宽度与高度,单位px,h,w分别为划分的网格行数量与列数量;N为提前设定的需检测的车道线数量,若该行未检测到车道线特征点,则概率落入至第k列。将输入图像的固定区域划分为hw个网格,在每1行上对每个网格进行分类,寻找车道线特征点的位置。以图2左侧虚线框中该行为例,分别94觉。见图4,在视线较差时,需要依靠临近车辆或可见的车道线信息来判断“语义”
25、存在的车道线,车道线的上下文信息比本身占据更大的区域。为了获得车道线的全局位置信息和局部细节信息,本文提出了纵 横 向 注 意 力 机 制(vertical-horizontal attention,VHA)。VHA可以分别从纵向和横向的像素中有效地集成车道线的纹理和位置信息,而无需大量计算。见 图 5,网 络 第n层 的 输 出 特 征 图 为Ynhwc,通 过 VHA 可 生 成 注 意 力 特 征 图Anhwc,An与输入Yn维度相同。具体为,对Yn的纵向与横向分别进行最大池化和平均池化操作,获得Hnh1c和Wn1wc,计算见式(1)遍历N次,寻求N条车道线特征点在该行的位置,右图中间深
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 网格 分类 纵横 注意力 城市道路 车道 检测 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。