基于U型残差编解码网络的带钢缺陷检测算法.pdf
《基于U型残差编解码网络的带钢缺陷检测算法.pdf》由会员分享,可在线阅读,更多相关《基于U型残差编解码网络的带钢缺陷检测算法.pdf(6页珍藏版)》请在咨信网上搜索。
1、D O I:1 0.3 9 6 9/j.i s s n.1 0 0 3-0 9 7 2.2 0 2 3.0 3.0 2 3 文章编号:1 0 0 3-0 9 7 2(2 0 2 3)0 3-0 4 8 4-0 6基于U型残差编解码网络的带钢缺陷检测算法郭华平*,毛海涛,詹尚桂,孙艳歌,李 萌,张 莉(信阳师范大学 计算机与信息技术学院,河南 信阳 4 6 4 0 0 0)摘 要:工业生产中带钢表面缺陷具有缺陷类型多变、背景杂乱和对比度低等特点,现有的缺陷检测方法无法检测出完整的缺陷对象。针对上述问题,提出一种基于U型残差编解码网络的带钢缺陷检测算法。在编码阶段,算法利用全卷积神经网络提取丰富的
2、多尺度缺陷特征,并结合注意力机制加速模型收敛。在解码阶段,使用所提出的U型残差解码网络恢复编码阶段编码的显著性信息。此外,设计了一个残差细化网络,用以进一步优化粗糙的显著图。实验结果表明,所提出的算法具有较强的鲁棒性。关键词:编解码;缺陷检测;显著目标检测;残差细化结构中图分类号:X 5 1 3 文献标识码:A开放科学(资源服务)标识码(O S I D):S t r i p S t e e l D e f e c t D e t e c t i o n A l g o r i t h m B a s e d o n U-s h a p e d R e s i d u a l C o d e c
3、 N e t w o r kG U O H u a p i n g*,MA O H a i t a o,Z H A N S h a n g g u i,S U N Y a n g e,L I M e n g,Z H A N G L i(C o l l e g e o f C o m p u t e r&I n f o r m a t i o n T e c h n o l o g y,X i n y a n g N o r m a l U n i v e r s i t y,X i n y a n g 4 6 4 0 0 0,C h i n a)A b s t r a c t:T h e s
4、u r f a c e d e f e c t s o f s t r i p s t e e l i n i n d u s t r i a l p r o d u c t i o n h a v e t h e c h a r a c t e r i s t i c s o f c h a n g e a b l e d e f e c t t y p e s,c l u t t e r e d b a c k g r o u n d a n d l o w c o n t r a s t.T h e e x i s t i n g d e f e c t d e t e c t i o
5、n m e t h o d s c a n n o t d e t e c t t h e c o m p l e t e d e f e c t o b j e c t s.I n o r d e r t o s o l v e t h e a b o v e p r o b l e m s,a s t r i p d e f e c t d e t e c t i o n a l g o r i t h m b a s e d o n U-s h a p e d r e s i d u a l e n c o d e r-d e c o d e r n e t w o r k i s p
6、r o p o s e d.I n t h e e n c o d i n g s t a g e,t h e a l g o r i t h m u s e s a f u l l y c o n v o l u t i o n a l n e u r a l n e t w o r k t o e x t r a c t r i c h m u l t i-s c a l e d e f e c t f e a t u r e s,a n d c o m b i n e s a n a t t e n t i o n m e c h a n i s m t o a c c e l e r
7、a t e m o d e l c o n v e r g e n c e.I n t h e d e c o d i n g s t a g e,t h e s a l i e n c y i n f o r m a t i o n e n c o d e d i n t h e e n c o d i n g s t a g e i s r e c o v e r e d u s i n g t h e p r o p o s e d U-s h a p e d r e s i d u a l d e c o d i n g n e t w o r k.F u r t h e r m o
8、r e,a r e s i d u a l r e f i n e m e n t n e t w o r k i s d e s i g n e d t o f u r t h e r o p t i m i z e t h e c o a r s e s a l i e n c y m a p.T h e e x p e r i m e n t a l r e s u l t s s h o w t h a t t h e p r o p o s e d a l g o r i t h m h a s s t r o n g r o b u s t n e s s.K e y w o r
9、d s:c o d e c n e t w o r k;d e f e c t d e t e c t i o n;s a l i e n t o b j e c t d e t e c t i o n;r e s i d u a l s r e f i n e t h e s t r u c t u r e0 引言带钢是工业生产中一种不可或缺的原材料,在航空航天、船舶、汽车等制造领域有着广泛的应用。然而,在制造过程中受制造工艺和生产环境等复杂因素的影响,带钢表面可能会出现各种类型的缺陷,如划痕、裂纹、斑块等。这些缺陷不仅会对产品的外观造成影响,还会影响其使用寿命。因此,带钢表面缺陷检测是现代
10、工业生产中极其重要的一步。由于传统的人工检测方式受视觉疲劳、注意力分散等因素的影响,很难达到现代工业生产中高效性和实时性的要求,所以建立带钢表面缺陷自动检测系统对带钢质量控制具有极其重要的意义。人类视觉系统具有有效的注意力机制,受人类视觉注意机制的启发,显著性目标检测技术被用来快速检测缺陷对象。显著性目标检测可以快速捕捉图像中最重要视觉信息,并过滤大量背景干扰,所以其作为一种快速的预处理操作被广泛应用于各种计算机视觉任务,如图像分割1、缺陷分类2、缺陷检测3、目标跟踪4等。目前,根据特征提取策略的不同,显著性目标检测方法主要分为基于传统模型的方法和基于深度学习的方法。前者先是手工制作视觉特征,
11、然后根据先验知识和假设开发各种模型,例如稀疏编码、收稿日期:2 0 2 2-0 5-0 3;修回日期:2 0 2 2-1 1-0 1;*.通信联系人,E-m a i l:h p g u o x y n u.e d u.c n 基金项目:国家自然科学基金项目(6 2 0 6 2 0 0 4,3 1 9 0 0 7 1 0);河南省自然科学基金青年项目(2 2 2 3 0 0 4 2 0 2 7 4,2 2 2 3 0 0 4 2 0 2 7 5);河南省高等学校重点科研项目应用研究计划(2 2 A 5 2 0 0 0 8);信阳师范学院研究生科研创新基金(2 0 2 1 KY J J 1 0)作
12、者简介:郭华平(1 9 8 2),男,河南信阳人,副教授,博士,硕士生导师,主要从事机器学习与数据挖掘等方向的研究。484信阳师范学院学报(自然科学版)J o u r n a l o f X i n y a n g N o r m a l U n i v e r s i t y第3 6卷 第3期 2 0 2 3年7月 N a t u r a l S c i e n c e E d i t i o n V o l.3 6 N o.3 J u l.2 0 2 3流形排序等。如B O L UK I等5提出了一种基于最优G a b o r滤波的纺织面料实时检测自动算法。由于该算法对噪声很敏感,只能适用
13、于特定的情况。为了解决上述问题,基于深度学习的显著性检测方法被提了出来。在真实值的监督下,深度学习方法可以自动学习丰富的图像表示,显著提高了缺陷检测的性能。尽管基于深度学习的显著性检测方法已取得了瞩目的结果,但它们在目标完整性和边界保留方面仍有一些不足。具体而言,现有基于深度学习的缺陷检测方法在分割缺陷对象方面仍具有以下缺点:1)在检测具有小目标的图像时,很难从紧凑的背景中分割出完整的缺陷对象;2)在处理杂乱背景或低对比度时,往往会引入背景噪声,无法清晰地检测出整个缺陷区域。针对以上问题,本文提出了U型残差编解码网 络(U-R e s i d u a l E n c o d-D e c o d
14、 e r N e t w o r k,UD R N e t),具体如下:(1)提出一种基于编解码残差网络的显著性检测方法,该方法具有较小的模型规模且具有较高的检测精度和鲁棒性;(2)在 编 码 器 阶 段,利 用 全 卷 积 神 经 网 络(F u l l y C o n v o l u t i o n a l N e t w o r k,F C N)6的 优势,提取丰富的多尺度特征;同时,引入轻量级注意力机制,使模型更加关注重要的缺陷区域;(3)在解码器阶段,使用所提出的U型残差解码块(U-s h a p e d R e s i d u a l D e c o d i n g B l o c
15、 k,UR B),以恢复在F C N的多个层中编码的显著性信息;同时,解码网络后添加了一个细化网络,以优化显著图中缺陷对象的边界细节。为了使模型更好地定位缺陷区域,本文采用深度监督机制,6个监督信号分别被施加到解码器网络中的5个U型解码块和细化网络上,用于监督U型解码块和细化网络的预测。1 提出方法先详细介绍UD R N e t的3个子模块,然后进一步阐述融合损失对网络输出完整结构和详细边界的重要性。1.1 编码器网络采用编码器-解码器结构的显著性检测方法,这种网络结构可以有效地融合低层丰富的纹理信息和高层详细的上下文语义信息,有助于精准预测缺陷对象的位置。与以往的编解码网络不同,本文使用R
16、e s N e t-3 4作为特征提取的主干,采用残差网络作为主干,一方面,其不是简单地堆叠在一起,而是使用跳越连接;另一方面,残差网络实现较深层次的网络时,受梯度消失影响小,并且具有较低复杂性。编码器部分具有1个输入卷积层和4个残差块(c o n v 2-3、c o n v 3-4、c o n v 4-6和c o n v 5-3)。输入卷积层和4个残差块都来自R e s N e t-3 4,不同之处在于,本文所提出模型输入层通道数为6 4,卷积核大小为33、步长为1,而不是77、步长为2的卷积核。为了进一步扩大感受野的大小,本文在输入层之后添加了一个步长为2的最大池化操作。最后,每个卷积的输
17、出被送到B N层,随后使用R e L U激活函数来增强非线性表示能力。近年来,注意力机制因其可移植性和高效性而被广泛 用 于 各 种 计 算 机 视 觉 任 务 中。因 此,在R e s N e t-3 47的每个残差基本块中嵌入了一个轻量级的卷积注意力机制模块,表示为RM-i(i=1,2,3,4)。RM的详细结构如图1所示。图1 RM的详细网络结构图F i g.1 D e t a i l e d n e t w o r k s t r u c t u r e d i a g r a m o f RM为了进一步捕捉全局信息,在编码器跟解码器之间添加一个空洞卷积模块,它是由3个5 1 2通道(扩
18、张率为2)且卷积核大小为33的卷积层组成。为了与原始R e s N e t-3 4保持相同的分辨率,第一个卷积层以2的步幅进行下采样。然后,这些卷积层中的每一层之后是B N和R e L U激活函数。1.2 UR B解码网络在显著目标检测与其他分割任务中,局部和全局信息都非常重要。但现有的大部分卷积神经网络,为了节省空间和提高计算效率,通常使用尺寸为11或 者33的 卷 积 核 进 行 特 征 提 取 如VG G8、D e n s e N e t9等。受尺寸限制,卷积核感受野较小,浅层的输出特征仅包含局部特征。为了获得更多的全局信息,最直接的方法是扩大感受野。传统的卷积神经网络是对图像先做卷积再
19、进行池化操作,降低图像尺寸的同时增大感受野。但是由于图像分割预测的输出是逐像素的,所以只有将池化后的图像上采样到原始的图像尺寸再进行预测,584郭华平,毛海涛,詹尚桂,等.基于U型残差编解码网络的带钢缺陷检测算法才能使得每个像素都能看到较大感受野信息。因此使用F C N图像分割中有两个关键点:一个是池化操作减小图像尺寸的同时增大感受野;另一个是上采样扩大图像尺寸。然而在尺寸变化的过程中,会造成一些空间信息的丢失。空洞卷积的提出解决了上述问题。空洞卷积的引入能扩大感受野和捕获多尺度上下文信息。另外空洞卷积还可以通过调整扩张率,从而获得不同的感受野。综上所述,为了捕获多尺度特征,提出了一个U型的残
20、差解码网络UR B。UR B-L(Ci n,M,Co u t)的结构如图2所示,其中L是解码器中的层数,Ci n、Co u t表示输入和输出信道,M表示UR B内部层中的信道数。图2 U R B的整体结构F i g.2 O v e r a l l s t r u c t u r e o f U R BUR B主要由3部分组成:(1)先是一个输入卷积层,把输入Ci n通道的图像x转换为Co u t通道的中间映射F1(x),这层是用来提取局部特征。(2)高度为L的U型对称编解码结构,以中间特征映射F1(x)为输入,学习提取和编码多尺度上下文信息U(F1(x)。L越大,意味着UR B就需要更多的池化
21、、更大的感受野和更丰富的局部和全局特征。通过调整此参数,可以从任意空间分辨率的输入特征映射中提取多尺度特征。该方法先从下采样的特征映射中提取多尺度特征,然后通过逐步上采样、连接和卷积将其编码成高分辨率特征映射。这个过程减轻了大尺度直接上采样造成的细节损失。(3)受R e s N e t的启发,一个跳越连接通过相加的方式融合局部特征和多尺度特征F1(x)+U(F1(x)。残差块中的运算可以总结为H(x)=F1(x)+U(F1(x),式中:H(x)表示输入特征x的期望映射,F1代表权重层。UR B与残差块的主要区别在于UR B将平面的卷积替换为U型结构,并用权重层转换的局部特征替换原特征。这种结构
22、设计使得网络能够直接从每个残差块中提取多个尺度的特征。更重要的是,因为大多数操作都应用在下采样特征映射上,所以U结构的计算开销很小。1.3 细化网络在训练过程中,采用深度监督机制,以利于有用信息向缺陷对象区域传播。但输出显著图仍有部分细节丢失,因此本文提出了一个具有1 D滤波器的残差细化结构(R R S_1 D),如图3所示该结构遵循编码器-解码器风格。图3 U D R N e t网络结构图F i g.3 N e t w o r k s t r u c t u r e d i a g r a m o f U D R N e t细化模块的编码器和解码器都由4个级组成,每级由两个卷积层组成,后面是
23、一个最大池化或双线性上采样单元。而桥接部分是具有6 4通道且卷积核大小为33的卷积层,随后是B N和R e L U激活函数。为了实现更深的网络层数,使用最大池化操作进行下采样。用于上采样的双线性插值的引入,是为了更好地匹配特征尺寸。另外,为了避免占据大部分计算复杂度的卷积,采用了两个专门的1 D滤波器(即31和13卷积),有效地平衡了细化性能和计算效率。最后将S i g m o i d映射后的细化图作为UD R N e t的最终显著图。1.4 损失函数由于显著对象检测本质上也可以看作是一个密集二分类问题,因此它的输出是每个像素成为前景对象的概率分数,所以大多数以前的方法总是使用交叉熵作为训练损
24、失。然而,这种简单的策略使网络很难捕捉显著对象的全局信息,从而产生了模684第3 6卷 第3期信阳师范学院学报(自然科学版)h t t p:/j o u r n a l.x y n u.e d u.c n2 0 2 3年7月糊的边界或不完整的检测结果。为了在边界定位和结构捕捉方面学习更详细的信息,在Q I N等1 0工作的影响下,构造了一个融合损失来监督网络的训练过程。融合损失分别由B C E(B i n a r y C r o s s E n t r o p y)、I OU(I n t e r s e c t i o n O v e r U n i o n)和S S I M(S t r u
25、c t u r a l S i m i l a r i t y I n d e x)3种损失组成。因此UD R N e t的总损失被定义为:La l l=1Kk=1kL(k)b c e+L(k)i o u+L(k)s s i m ,(1)式中:指的是批量,K是显著图的总数(设置为7),k表示第k侧输出融合损耗的权重(根据经验将其设为1),L(k)b c e、L(k)i o u、L(k)s s i m分别表示B C E、I OU和S S I M损失。2 实验2.1 实验配置为了验证所提出的模型的有效性,在一个具有挑战性的公共带钢基准数据集S D-s a l i e n c y-9 01 1上进行
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 型残差编 解码 网络 带钢 缺陷 检测 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。