基于多尺度特征融合网络的路面裂缝分割方法研究.pdf
《基于多尺度特征融合网络的路面裂缝分割方法研究.pdf》由会员分享,可在线阅读,更多相关《基于多尺度特征融合网络的路面裂缝分割方法研究.pdf(6页珍藏版)》请在咨信网上搜索。
1、2097-3012(2023)03-0425-06 Journal of Spatio-temporal Information 时空信息学报 收稿日期:2023-02-16;修订日期:2023-09-30 作者简介:李朝勇,研究方向为核电工程项目建设、民用工程建设及维修治理等。E-mail: 基于多尺度特征融合网络的路面裂缝分割方法研究 李朝勇,张成,韦海丹 广西防城港核电有限公司,防城港 538001 摘 要:针对路面缺陷检测设备采集到的路面影像中裂缝像素数占比较小,而现有深度学习的语义分割网络难以分割图像中小目标的问题,本文提出了一种融合了多尺度特征信息的编解码结构语义分割网络模型。首先
2、,在经典编解码结构分割网络 U-Net(u-shaped network)的基础上,将编码结构中不同层级的特征图分别与解码结构中的特征图越级融合;其次,在网络的误差反向传播过程中选择适用于小目标物体分割的损失函数 Focal Loss;最后,在 CrackForest 数据集上对本文方法和常用四种模型进行了对比分析。结果表明,改进的 U-Net 模型在交并比、F1 分数两种综合评价指标上的表现均要优于其他模型,且在细小裂缝的分割结果上提升更为明显。这说明本研究能够为路面影像中裂缝分割任务提供技术参考。关键词:路面裂缝分割;改进的 U-Net;多尺度特征融合;Focal Loss 引用格式:李朝
3、勇,张成,韦海丹.2023.基于多尺度特征融合网络的路面裂缝分割方法研究.时空信息学报,30(3):425-430 Li C Y,Zhang C,Wei H D.2023.Research on road crack segmentation method based on multi-scale feature fusion network.Journal of Spatio-temporal Information,30(3):425-430,doi:10.20117/j.jsti.202303015 1 引 言 道路安全问题至关重要,路面裂缝是威胁道路安全的重要因素之一(翁飘等,2019
4、)。传统的路面裂缝检测方法主要采用人工目视,这会耗费大量的人力物力,检测的精度也相对较低。近年来,随着影像技术的发展,使用路面裂缝采集设备采集路面影像,并使用计算机视觉算法从影像中提取裂缝的方法逐渐成为研究热点(Guan 等,2021;Chen等,2023)。在诸多计算机视觉算法中,主要有数字图像处理和深度学习两种方法(Cao 等,2020)。基于数字图像处理的方法主要为边缘检测、形态学等针对裂缝低级特征而设计的提取方法。如 Chanda等(1998)提出了基于多尺度结构元素的形态学边缘检测,具有较强的抗噪性。Abdel-Qader 等(2003)将快速傅里叶变换、快速哈尔变换、坎尼算子、So
5、bel算子应用于裂缝检测中,结果表明快速哈尔变换对裂缝的检测效果最好,但该类算法对噪声仍很敏感。Yamaguchi 和 Hashimoto(2007)提出了基于渗流模型的裂缝检测算法,该算法将各像素点在其对 应的局部窗口内进行区域生长,根据生长的结果判断该像素点是否为裂缝点。此类研究多针对某一特定数据集的方法,模型的泛化能力较弱。随着深度学习技术在图像处理领域的广泛应用,卷积神经网络在图像分类和目标检测领域取得了很大的进展。基于深度学习语义分割的裂缝分割方法因具有速度快、精度高、泛化能力强等特点,已成为路面裂缝分割任务中应用最为广泛的方法之一(Ali 等,2022)。语义分割是深度学习中广泛使
6、用的目标检测技术之一,其中,广泛应用于裂缝分割的模型主要为编解码结构,该结构通过对图像中的每一个像素进行分类实现了目标的分割。基于此结构提出的模型有很多,如全卷积神经网络(fully convolutional network,FCN)、SegNet、U-Net(u-shaped network)等。FCN 由 Long 等(2015)提出,使用反卷积结构及特征图相加的融合方式,实现了对物体的像素级分割。Yang 等(2018)使用FCN 进行裂缝的检测,达到了像素级别的分割效果。SegNet 由 Badrinarayanan 等(2017)提出,该方法的特点在于不用保存整个解码部分的特征图,
7、426 Journal of Spatio-temporal Information 时空信息学报 2023,30(3)只需保存池化索引,节省了内存空间。Nguyen 等(2022)将该方法应用在混凝土裂缝分割任务中,实现了自动化、快速的裂缝分割。U-Net 由Ronneberger 等(2015)提出并应用于细胞分割的模型,率先使用了 U 型结构的编解码结构的网络。Ju等(2020)在此基础上提出将 U-Net 中的卷积层中加入填充,使卷积后的特征图像保持与卷积前的分辨率一样,更适用于细小尺寸的裂缝分割。Zhang等(2021)设计了拥有不同下采样和上采样层数的U-Net,并进行对比实验,分
8、析了模型深度对裂缝分割效果的影响。虽然基于深度学习的路面裂缝分割方法已经得到了广泛的应用,但现有的算法中仍存在一些问题。由于路面裂缝通常比较细小,所以在整幅路面影像中,裂缝的像素数相对全图像素数的占比通常较小,并且裂缝的形态通常为细长的,其宽度相对于全图宽度的占比也十分小。此外,编解码结构网络中频繁的下采样,导致其精度难以提升。鉴于此,本文提出了一种基于改进 U-Net的编解码结构语义分割网络模型,通过建立编码结构和解码结构中多尺度特征图之间的联系,以及选用能平衡正负样本数量的损失函数,来提高路面影像中裂缝的分割精度。2 研究方法 2.1 U-Net 模型 U-Net 最初是为了解决生物医学图
9、像分割问题而提出的,但由于其出色的分割性能,后来也被广泛应用在其他物体的分割上,如卫星图像分割、工业缺陷检测等(吕书强等,2022)。U-Net 的编解码结构,如图 1 所示。编码结构负责特征提取,主要用到的是卷积神经网络中常用的卷积层和池化层;解码结构负责将特征图恢复至原始分辨率并对图像中的每个像素点进行分类,主要用到的是上采样和跳跃连接。上采样是将图像的分辨率提高,使经过下采样后的特征图恢复至原始分辨率;常用的上采样方式有反卷积和插值两种。跳跃连接是将编码结构和解码结构的特征图进行融合,融合采用将两个特征图沿着特征维度的方向进行拼接的方式,这种设计可以帮助网络更好地保留图像中的原始信息,从
10、而提高分割精度。图 1 U-Net 模型结构(Ronneberger 等,2015)Fig.1 Structure of the U-Net model 2.2 改进的 U-Net 模型 基于编解码结构的 U-Net 网络在特征融合时仅考虑了同一尺度的特征,这导致随着编码结构下采样次数的逐渐增多,低级别的特征信息逐渐丢失,而只保留了高级别特征信息。这使得最终的分割结果中,由低级别信息组成的边界等特征被弱化,导致分割精度的下降。研究基于 U-Net 模型,将编码结构中的原始特征图按照不同的比例下采样,得到不同尺度的特征图;之后分别与解码结构中相对应的特征图进行融合,实现了融合多尺度特征图、保留多
11、尺度特征信息,原理如图 2 所示。与 U-Net 模型最大的不同点在于增加了多尺度特征融合层:结构将原始分辨率的特征图 C1 分别按照 1/2、1/4、1/8 的下采样比例进行最大池化,分别得到 P1、P2、P3 三个特征图;将这些包含了裂缝边界等低级别特征信息的特征图分别与编码结构、解码结构的特征图进行融合,即 P1 与 C2、U3 融合,P2 与 C3、U2 融合,P3 与 C4、U1 融合。融合的方式与 U-Net模型的一致,采用沿特征维度拼接的方式:fusion1212FeatureFeature,Feature,CC W H(1)式中,fusionFeature为融合后的特征图;1F
12、eature、2Feature为待融合的两个特征图,形状分别为1,C W H、2,C W H;Ci为特征图的维度;W、H 分别为特征图的长和高。由此可知,使用拼接的特征融合方式需保证特征图的长和高一致,这也是为何在多尺度特征融合层中采用三种不同下采样比例的原因。李朝勇 等:基于多尺度特征融合网络的路面裂缝分割方法研究 427 图 2 本文方法的结构 Fig.2 Structure of the proposed method 此外,为了使模型在误差反向传播时,更注重于对裂缝分类准确度的优化,本文使用了Focal Loss作为网络的损失函数。Focal Loss是一个专门为正负类别数量不均衡而设
13、计、适用于小目标物体 分割的损失函数(Lin等,2017):FL(1)log,1(1)()log(1),0yyyLyyy (2)式中,0时,可以使易分类样本的损失大幅减少,使模型更加关注不易分类的样本;为平衡因子,用于平衡正负样本的重要性。研究中,易分类的样本是占有大量像素的背景;不易分类的样本是仅占少量像素的裂缝。3 实验与分析 为了验证本文方法的有效性和泛化性,选用CrackForest数据集作为训练和测试的数据集(Shi等,2016)。CrackForest数据集是一个常用的道路裂缝图像数据库,包含155幅分辨率为480像素320 像素的道路裂缝图像,可以大致反映城市的路面状况。图3是该
14、数据集的图像和标签示例。图 3 CrackForest 数据集的图像和标签示例 Fig.3 Examples of images and labels from the CrackForest dataset 为了量化评估模型的分割性能,本文利用交并比(intersection over union,IoU)、F1分数这两个常用的综合评价指标对最终的分割结果进行评价。TPPrecision=TP+FP (3)TPRecall=TP+FN (4)TPIoU=TP+FN+FP (5)PrecisionRecallF1=2Precision+Recall (6)式中,TP为将正类预测为正类的像素数量
15、,即将裂缝像素分类为裂缝的个数;FP为将负类预测为正类的像素数量,即将背景像素分类为裂缝的个数;FN为将正类预测为负类的像素数量,即将裂缝像素分类为背景的个数;Precision为模型判定是正的所有样本中有多少是真正的正样本;Recall为所有正样本中有多少被模型判定为正。3.1 模型训练 为 了 使 模 型 的 泛 化 能 力 更 强,研 究 对CrackForest数据集进行了数据增强处理。对所有图像和标签分别进行了90、180、270的旋转,以及以竖边为轴线的左右翻转,从而将数据集扩充至原来的8倍,即1240幅图像。通过这种方式,使模型能够具有平移和旋转不变性,提升模型的分割精度。训练过
16、程中,先将上述数据集里所有的图像和标签按照622的比例随机分为训练集、验证集428 Journal of Spatio-temporal Information 时空信息学报 2023,30(3)和测试集。其中,训练集用于训练模型与确定参数;验证集用于确定网络结构及调整模型的超参数;测试集用于检验模型的泛化能力,即分割能力。除此之外,其他超参数设置如下:优化器选用Adam,初始学习率设为0.001;一阶、二阶矩估计的指数衰减率设为0.9、0.99;模糊因子epsilon设为1108;批量大小设为32;epoch次数设为30;Focal Loss中的和分别设为0.25、2。3.2 结果与分析 为
17、了验证本文方法对小裂缝分割的有效性,研究分别使用本文方法和经典模型FCN-8s、U-Net、Segnet,以及一种专门为路面裂缝分割设计的模型CrackU-net,对经过预处理后的CrackForest数据集进行训练和测试。其中,CrackU-net是在U-Net基础上改进的,通过分析路面裂缝的形态特点,将原始网络中的池化方式改为最大池化、卷积中的填充 方式改为不变,显著提升了路面裂缝的分割精度,是一种非常具有代表性的路面裂缝分割网络。首先将训练集和验证集放入模型中进行训练,其次统一保存验证集精度最高的模型参数,最后分别使用这些模型参数对测试集进行测试。图4是五种模型在测试集上的部分测试结果,
18、测试图像按照简单到复杂的情况分为单条裂缝、多条裂缝和极细裂缝。其中,由红框标的位置可以看出,本文方法相比三种经典模型无论在单条裂缝还是多条裂缝的情况下,在边缘细节上的分割效果要更好,同时,噪点数即误识别的区域也更少;CrackU-net虽然分割情况稍好但仍与本文方法有差距。在对极细裂缝进行分割时,其他四种模型的分割效果明显不如本文方法,出现了不同程度的漏检情况。这证明本文方法中的多尺度特征融合层,以及Focal Loss的使用在分割路面裂缝这种小目标物体时,相比已有方法具有更好的性能,更能还原细小裂缝本身的细节。图 4 五种模型的分割结果示例 Fig.4 Examples of segment
19、ation results from five models 为了进一步量化五种模型的分割性能,利用IoU、F1分数指标对五种模型在测试集上的分割结果进行统计,结果如表1所示。本文方法有效地提升了路面裂缝的分割精度,相对于其他四种方法,表 1 五种模型分割结果的 IoU、F1 分数指标 Tab.1 IoU and F1 metrics for segmentation results of five models%方法 IoU F1 分数 FCN-8s 61.7 76.3 U-Net 67.4 80.5 SegNet 67.9 80.9 CrackU-net 68.7 81.5 本文方法 71
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 尺度 特征 融合 网络 路面 裂缝 分割 方法 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。