多层次特征融合和注意力机制的道路裂缝模型_宋榕榕.pdf
《多层次特征融合和注意力机制的道路裂缝模型_宋榕榕.pdf》由会员分享,可在线阅读,更多相关《多层次特征融合和注意力机制的道路裂缝模型_宋榕榕.pdf(8页珍藏版)》请在咨信网上搜索。
1、2023,59(13)公路作为国民基础设施的重要组成部分,已然成为现代社会发展的命脉。据政府统计公报显示,截至2020年底公路总里程达到519.81万公里,呈现近5年数值新高1。强大的公路干网为社会建设与经济发展提供坚实保障,而良好的路面状况为安全出行奠定切实基础。然而受使用年限、施工工艺以及自然环境等多重因素的影多层次特征融合和注意力机制的道路裂缝模型宋榕榕1,2,王财勇1,2,田启川1,2,张琪31.北京建筑大学 电气与信息工程学院,北京 1000442.建筑大数据智能处理方法研究北京市重点实验室,北京 1000443.中国人民公安大学 信息网络安全学院,北京 100038摘要:针对现有裂
2、缝检测方法易受各类噪声干扰从而导致误检及小尺度裂缝漏检的问题,提出一种基于多层次特征融合和注意力机制的道路裂缝检测模型,采用编解码结构DeepCrack网络作为基本架构。设计单尺度多层次特征融合模块应用于特征提取,通过多级网络表征增强裂缝的细节特征。同时在编解码端对称融合部位,引入改进后的三重注意力模块,从通道、高和宽3个维度进行跨维度交互,凸显裂缝特征和抑制噪声特征,并进行跨维度的特征融合,以获得更具互补性的裂缝特征。实验表明,在道路裂缝数据集CRKWH100上,模型在多个边缘评估指标上实现了当前最优,同时在Stone331石材裂缝数据集中也验证了该模型的泛化性。关键词:深度学习;编解码网络
3、;裂缝检测;特征融合;注意力机制文献标志码:A中图分类号:TP391.41doi:10.3778/j.issn.1002-8331.2203-0531Road Crack Model Based on Multi-Level Feature Fusion and Attention MechanismSONG Rongrong1,2,WANG Caiyong1,2,TIAN Qichuan1,2,ZHANG Qi31.School of Electrical and Information Engineering,Beijing University of Civil Engineering
4、and Architecture,Beijing100044,China2.Beijing Key Laboratory of Intelligent Processing for Building Big Data,Beijing 100044,China3.Schoo of Information and Cyber Security,People s Public Security University of China,Beijing 100038,ChinaAbstract:In order to solve the problem that existing crack detec
5、tion methods are easily interfered by various noises,which leads to false detection and missed detection of small-scale cracks,this paper proposes a road crack detection modelbased on multi-level feature fusion and attention mechanism,and adopts the codec structure DeepCrack network as thebasic fram
6、ework.A single-scale multi-level feature fusion module is designed for feature extraction,and the detailedfeatures of cracks are enhanced through multi-level network representation.At the same time,the improved triple atten-tion module is introduced into the symmetric fusion part of the codec end,an
7、d cross-dimensional interaction is carriedout from the channel,height and width dimensions to highlight crack features and suppress noise features,and cross-dimensional feature fusion is carried out to obtain more complementary crack features.Experiments show that the modelachieves the current best
8、in several edge evaluation indexes on the road crack data set CRKWH100,and the generalizationof the model is also verified in the Stone331 stone crack data set.Key words:deep learning;encoder-decoder network;crack detection;feature fusion;attention mechanism基金项目:国家自然科学基金(62106015,61906199);北京建筑大学青年教
9、师科研能力提升计划项目(X21079);北京建筑大学“建大英才”培养工程(JDYC20220819)。作者简介:宋榕榕(1996),女,硕士研究生,研究方向为计算机视觉、深度学习;王财勇(1990),通信作者,男,博士,讲师,CCF会员,研究方向为生物特征识别、模式识别,E-mail:;田启川(1971)男,博士,教授,CCF会员,研究方向为人工智能、模式识别、计算机视觉与图像处理等;张琪(1988),女,博士,讲师,研究方向为生物特征识别、深度学习、计算机视觉等。收稿日期:2022-03-28修回日期:2022-05-18文章编号:1002-8331(2023)13-0281-08Compu
10、ter Engineering and Applications计算机工程与应用281Computer Engineering and Applications计算机工程与应用2023,59(13)响,导致公路频繁出现以裂缝为主的表面缺陷,特别是对于高速公路、高架桥梁等,一旦出现较严重裂缝,将极大地降低来往车辆的安全系数。此外,从投资成本角度考虑,及时快速地发现并修复道路缺陷有利于降低运营成本,减少经济损失。因此,进行路面缺陷检测是非常必要的。人工路面检测通常由专业人员沿线行驶获取缺陷信息,这种方式不仅效率低、成本高,并且缺乏统一的评估规范标准导致检测结果主观不统一。计算机视觉技术的出现给公路
11、质检带来了新的机遇,通过机器检测有效地避免了人为误差,提升了检测的精度和效率。传统的视觉技术基于经典的图像处理方法,例如,Zhu等人2将多种边缘检测算子Canny、Roberts和Sobel等应用到裂缝检测,并分析了各自的特点以及应用场景;Akagic等人3通过对直方图的观察改进阈值分割算法,从而进行裂缝检测;Song等人4和Fernandez等人5将Canny算子与阈值分割算法相结合,提升裂缝检测的性能;小波变换6和数学形态学7方法也被分别应用到裂缝检测领域。这些方法通常依赖专家知识和经验,且在处理背景复杂、噪声较大的图像时,很难获得准确的结果。近年来,深度学习在图像分析、人脸识别、医学影像
12、等领域的成功也启发了裂缝检测的研究。深度学习可以提取多尺度的上下文语义信息,为缺陷判别提供了有力的支撑。目前大多数道路裂缝检测模型采用经典的 CNN 网络作为研究基础,例如 U-Net8、SegNet9等。Chen等人10和Song等人4采用SegNet进行裂缝缺陷分割。Lau等人11提出了一种改进的U-Net路面裂缝分割网络。Zou等人12提出了一个改进SegNet的DeepCrack裂缝检测网络,采取编码端与解码端相结合的思路进行多尺度融合与多重监督学习,在多个数据集上均实现了最好的效果。DeepCrack能够有效抑制噪声对于裂缝检测的影响,但仍然存在小尺度裂缝漏检与外观相似的噪声误检的问
13、题。针对 DeepCrack 存在的问题,本文对其进行了改进,首先应用单尺度多层次特征融合模块增强裂缝的细节特征,然后嵌入三重注意力模块到DeepCrack的编解码端特征融合部分,以实现特征权重重新分配和互补融合,从而有力地减少了噪声的干扰,同时提升了小尺度裂缝的有效检测。本文的主要贡献列举如下:(1)提出了一种基于多层次特征融合和注意力机制的道路裂缝检测模型。针对小尺度裂缝漏检的问题,设计单尺度多层次特征融合模块,从而充分地提取裂缝细节信息,有效地降低小尺度裂缝特征丢失的概率。(2)针对噪声干扰的问题,在编解码特征融合部分引入轻量型三重注意力机制。通过通道、高和宽跨维度交互实现特征权重重新分
14、配和互补融合,凸显裂缝特征,同时有效抑制噪声特征,从而减少裂缝误检的发生。(3)提出的模型在公开道路裂缝数据集CRKWH100上达到了当前最好的裂缝边缘检测性能,并在Stone331石材裂缝数据集上验证了本模型的泛化性。1网络模型1.1模型建立本文采用当前道路裂缝检测效果最好 DeepCrack作为基础架构网络。DeepCrack是一个深度全卷积裂缝分割网络,主要由编码端、解码端、特征融合三部分构成。编码端采用VGG16作为特征提取的主体,由13个卷积层和5个下采样池化层组成,卷积个数按照前向传播顺序采用2、2、3、3、3共5个阶段分布的设计思路。卷积层后均进行批量归一化和ReLU激活层操作。
15、每个阶段结束时,连接最大池化层使得特征图分辨率减小一半,并存储最大池化的位置信息。与编码端相对应的解码端执行上采样和卷积操作,卷积个数遵循3、3、3、2、2的分布原则。为了减小最大池化操作对于边界特征信息的损失,调用最大池化索引(max pooling indices)进行上采样。这个上采样步骤会产生稀疏特征图,相较于编码侧稠密特征图具有突出的边缘信息。在语义分割领域,多尺度特征融合已经成为提高检测性能的重要手段之一。鉴于这个思路,DeepCrack将编码端和解码端同一尺度下的最后一个卷积层拼接起来,再经过卷积操作及上采样恢复到原图尺寸,自此得到5个不同尺度下生成的裂缝预测图。进一步地对它们执
16、行拼接操作,并通过一个11卷积得到最终的预测图。DeepCrack还采取了多重损失监督学习机制,使得不同尺度的预测图在训练阶段均发挥作用。该网络在道路裂缝主体形态的检测上取得了较好的效果,但是针对小尺度裂缝部位却有不同程度上的丢失,并且也存在噪声误识别的问题。本文针对以上问题,提出了一种基于多层次特征融合和注意力机制的道路裂缝检测模型,如图1所示。设计单尺度多层次融合模块对同一尺度出现的所有卷积层进行信息提取和融合,获取丰富的细节纹理信息,增强小尺度裂缝特征表达;引入三重注意力模块实行针对性的特征选择与裂缝特征信息互补融合,降低裂缝误检的概率。与当前主流方法相比较,本文方法呈现如下不同之处:(
17、1)实现单一尺度下不同层特征的选取融合。通常方法执行中部特征融合时直接采用同一尺度下的末端层特征,却忽略了前端特征层。而不同层级所包含的信息量却不尽相同,有效获取所有特征层丰富的裂缝信息有利于小尺度部位的检测。使用单尺度多层次模块可以最大限度地筛选保留前期裂缝有效特征,为后续高阶操作奠定基础。(2)特征融合引入跨注意力机制。主流方法通过简单拼接操作完成编解码对应层级的特2822023,59(13)征融合,使得目标区域无法被有效捕捉。注意力机制的引入能够提高裂缝部位的权重比例,有针对性地降低误识别的可能性。从现存问题检与漏检问题。1.2单尺度多层次特征融合模块从整个网络来讲,DeepCrack网
18、络采用编解码端各分辨率中未经任何处理的最后一层特征图作为融合阶段的预备材料,但却存在小尺度漏检的问题。如何在现有网络的基础上获取丰富语义信息成为设计的出发点。单尺度多层次特征融合模块考虑到同一分辨率下相同位置的不同卷积层表达不尽相同的特点,将相同分辨率下的所有卷积层均考虑在内,使用11卷积操作将不同卷积层融合,确保多重语义的有效结合以及精密裂缝特征的提取。本文提出的单尺度多层次特征融合模块如图2所示(以编码端为例)。现对该模块做如下陈述。(1)首先通过11卷积操作对各卷积层进行特征提取,通道数设置为64,此数值根据网络各阶段通道数的最大公约数进行设置既能最大限度提取各层信息也不会增加很多参数量
19、。(2)再将各卷积层操作后的结果进行逐像素相加,在不增加额外内存压力的同时对具有相似表达的特征进行信息互补,提升了语义的丰富性。(3)再经过一个 11 卷积对相加后的特征进行融合,通道数仍设为64,最后达到编码端特征语义丰富提取的目的。1.3三重注意力模块注意力机制已广泛应用于视觉任务中。通过引入注意力机制可以帮助网络关注特征图的有效区域,抑制背景区域的干扰。通常注意力机制从通道和空间两个角度考虑,通过构建通道之间的关联程度或空间像素之间的依赖关系使得目标物体得到更多的关注,然而两个角度通常采取先降维后升维的举措来保证与原始特征相匹配的要求,过程则呈现为先进行互不关联、各自独立的权重学习,再将
20、两部分逻辑连接起来的操作。这里维度变化则会导致信息量的丢失,通道注意力机制引入的全连接层以及两种机制的顺序连接也会增加一定的参数量与运算复杂度。因此如何在保持维度不变的情图1基于改进的DeepCrack道路裂缝检测网络结构图Fig.1Network structure diagram of road crack detection based on improved DeepCrack单尺度多层次模块512512643232512注意力模块Max pool UpsampleDeconv,Loss/sigmoid256256128128128256646451251251232562561281
21、6165126464512128128256512512643232512Conv11Loss/sigmoidConcat编码端特征融合解码端Conv 33 Conv 11 64646464输入输出图2单尺度多层次模块Fig.2Single-scale multi-level module宋榕榕,等:多层次特征融合和注意力机制的道路裂缝模型283Computer Engineering and Applications计算机工程与应用2023,59(13)况下实现有效的轻量注意力模型成为了本文出发点。利用跨维度交互的思想实现通道C与空间标志信息H、W的有效融合,同时并未采用降维操作以保证信息最
22、大化留存13。本文设计的三重注意力模块如图3所示。注意力模块由三个并行部分组成:第一分支是通道C与宽度W之间的交互,第二分支是通道C与高度H之间的交互,第三分支是高度H与宽度W之间的交互,最后将三支线拼接后输出。(1)第一分支:通道C与宽度W之间的交互。首先将高低阶特征拼接得到特征设为FRCHW。对特征图进行维度置换后得FhRHCW。将特征Fh经过最大池化和平均池化操作生成单通道特征图Fhmax和Fhav,将两者拼接后经过一系列的卷积与批量归一化操作以及Sigmoid激活后得到空间权重图。第一分支注意力权重的特征图Mh的计算如式(1)所示:Mh=(ConvFhavFhmax)(1)(2)第二分
23、支:通道C与高度H之间的交互。对特征图F进行维度转置后得到FwRWHC,其余部分与上述操作类似,得到注意力权重特征图Mw。第二分支注意力权重的特征图Mw的计算如式(2)所示:Mw=(ConvFwavFwmax)(2)(3)第三分支:高度H与宽度W之间的交互。无须进行维度转置并且经过以上相似的操作,得到权重特征图Mc。第三分支注意力权重的特征图Mc的计算如式(3)所示:Mc=(ConvFcavFcmax)(3)最后整个三重空间注意力模块的处理过程如式(4)所示:|F1=T(MhFh)F2=T(MwFw)F3=McF(4)其中,表示激活函数Sigmoid,表示拼接操作,Conv表示卷积操作,表示对
24、应元素相乘,T表示维度转置回初始状态。由上得到三个分支的注意力特征图F1、F2、F3,最后通过简单的拼接操作进行信息聚合,并经过33卷积将通道数恢复到初始值C,自此完成对编解码端特征融合部分的三重注意力机制设计。1.4损失函数裂缝区域相较于整个图像占据较小的面积,裂缝目标比例过小将导致类别之间存在严重失衡的问题。因此,本文使用二元交叉熵(binary cross entropy,BCE)损失函数(式(5)和Focal损失函数14(式(6)进行联合优化,有助于解决训练中的类别不平衡问题,具体损失函数计算如式(7)所示:LBCE=-ylogp-(1-y)log(1-p)(5)LFocal=-y(1
25、-p)logp-(1-y)plog(1-p)(6)L=LBCE+LFocal(7)其中,y表示标签值p表示预测值,为超参数,此处设置为2;和都是超参数,根据经验,本文将两者都设置为0.5。LBCE损失函数无差别地学习图像中的像素分类。LFocal损失函数是针对正负样本极度不平衡提出的,调节因子(1-p)的存在使得网络减少对于区域背景的关注度,提高了裂缝像素的影响力。2实验结果与分析2.1数据集为验证模型的有效性,本文选取公开道路裂缝数据集CrackTree26015进行模型训练,然后直接在其他裂缝数据集上进行性能评估。该训练数据集由面阵相机拍摄,总共有260张像素级标注的图像,每张图像的分辨率
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多层次 特征 融合 注意力 机制 道路 裂缝 模型 宋榕榕
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。