基于YOLO-RW模型的机器视觉原木端面识别定位.pdf
《基于YOLO-RW模型的机器视觉原木端面识别定位.pdf》由会员分享,可在线阅读,更多相关《基于YOLO-RW模型的机器视觉原木端面识别定位.pdf(10页珍藏版)》请在咨信网上搜索。
1、第 39 卷 第 5 期2023 年 9 月森 林 工 程FOREST ENGINEERINGVol.39 No.5Sep.,2023doi:10.3969/j.issn.1006-8023.2023.05.017基于 YOLO-RW 模型的机器视觉原木端面识别定位曾小山,张小波(江西环境工程职业学院 汽车机电学院,江西 赣州 341002)摘 要:在原木木材材积检测中,由于端面伐痕、开裂和阴影等因素容易影响智能检测系统的准确性和稳定性,一直以来,端面识别定位属于一个难点问题。对多个 YOLO(You Only Look Once)版本模型的原理分析和试验验证,融合这些 YOLO版本模型优点,
2、在 yolo3 主干网络基础上,采用数据增强、特征融合和损失函数等优化手段,构建更加适用于原木检测的端到端深度学习模型 YOLO-Raw Wood(YOLO-RW),用于原木木材材积图像的准确识别和定位。为检验 YOLO-RW 模型性能,设计多组数据试验。结果表明,同比基准模型,YOLO-RW 模型具有更高的端面识别精度和鲁棒性,在准确率和召回率评价指标平均值上,分别高出基准模型 6.95%和 2.38%以上。研究表明,YOLO-RW 模型在原木木材材积检测领域有着较好的应用价值,亦可为相关目标识别领域的研究提供借鉴。关键词:原木木材;端面识别;深度学习;YOLO-RW;目标识别中图分类号:S
3、776 文献标识码:A 文章编号:1006-8023(2023)05-0144-10A Log End Face Recognition and Positioning Model Based on YOLO-RWZENG Xiaoshan,ZHANG Xiaobo(School of Automotive Mechanics and Electronics,Jiangxi Environmental Engineering Vocational College,Ganzhou 341002,China)Abstract:In the detection of log volume,the a
4、ccuracy and stability of the intelligent detection system are easily affected by the factors such as end cutting marks,cracks,shadows and so on.For a long time,the end face recognition and positioning is a difficult problem.For this reason,through the principle analysis and experimental verification
5、 of multiple YOLO version models,this paper has fused the advantages of multiple YOLO version models.On the basis of the yolo3 backbone network,using data enhancement,feature fusion,loss function and other optimization methods,an end-to-end depth learning model YOLO-Raw Wood(YOLO-RW)is con-structed,
6、which is more suitable for log detection and is used for accurate recognition and localization of log volume images.In order to test the performance of the YOLO-RW model,this paper has designed several sets of data experiments.The experimental results show that the YOLO-RW model has higher end face
7、recognition accuracy and robustness than the benchmark model,and is 6.95%and 2.38%higher than the benchmark model in terms of preparation rate and recall rate.Therefore,the YOLO-RW model has a good ap-plication value in the field of log volume detection,and can also provide a reference for the resea
8、rch of related target recognition fields.Keywords:Raw wood;face recognition;deep learning;YOLO-RW;target recognition收稿日期:2022-12-14基金项目:江西省教育厅科学技术研究项目(GJJ2205420)。第一作者简介:曾小山,硕士,副教授。研究方向为机器人视觉技术。E-mail:273012157 通信作者:张小波,硕士,副教授/高级技师。研究方向为控制系统可靠性分析。E-mail:109805585 引文格式:曾小山,张小波.基于 YOLO-RW 模型的机器视觉原木端面识
9、别定位J.森林工程,2023,39(5):144-153.ZENG X S,ZHANG X B.A Log end face recognition and positioning model based on YOLO-RWJ.Forest Engineering,2023,39(5):144-153.0 引言露天堆放的原木受到存放时间、存储地点、天气和光线等多种因素的影响,导致部分原木端面出现了裂缝和霉菌等缺陷。此外,一些原木在采伐时遭受了切割和割伤等情况,给原木端面图像的采集和检测带来了很大的困难,影响了图像的正确识别效果。针对上述问题,相关人员进行了一些有益的探索和研究1-5。例如,以
10、原木剖面图为实例,栾新等1设计了一种分层分类器,该分类器可以单独识别目标,成功解决了不规则端面的模式匹配问题。梅振荣2则采用最小二乘法椭圆拟合的方案,解决了原木端面的处理和径级识别问题。林丽华3对多尺度小波变换边缘检测算法进行了改进,主要针对原木图像质量进行了优化,优化后的算法在保证原木轮廓边缘完整性和连续性的同时,大幅提高了原木图像的质量。霍东旭5采用了基于 Canny 算法的边缘检测方法对原木图像进行处理,通过去除噪声和计算边缘振幅,成功地检测出更多原木端面的边缘细节,优化后的方法显著提高了原木端面图像的清晰度和边缘识别率。赵亚凤等6采用自适应第 5 期曾小山,等:基于 YOLO-RW 模
11、型的机器视觉原木端面识别定位阈值分割、随机森林分类器的训练和预测以及图像增强算法,成功解决了在有阴影的图像中进行分割的问题。这种方法不仅能够有效地进行阴影消除,还可以提高图像的识别准确率。然而,以上方案的算法复杂度较高,导致原木端面识别的效率不高,同时在图像信息处理时可能会出现信息不完整的情况,从而可能导致检测遗漏并降低系统的可靠性。此外,自适应阈值响应滞后等问题也会影响系统的性能。目前,深度学习技术在图像处理领域取得了巨大进展,其中基于 You Only Look Once(YOLO)模型的目标检测方法得到了广泛的应用。本研究提出一种名为 YOLO-Raw Wood(YOLO-RW)的新型深
12、度学习模型,专门应用于原木木材材积图像的端面识别和定位。YOLO-RW 模型结合了各个版本的YOLO 模型的优缺点,并在数据增强、模型结构和损失函数等方面进行了优化,从而提高了模型的精度和鲁棒性。通过试验,本模型能够有效地缓解原木端面的裂纹、霉菌、切割痕迹、复杂背景以及阴影等干扰因素,大幅提升了图像中的原木端面目标识别准确率,为实现原木材积的自动检测奠定了基础。1 YOLO 模型介绍YOLO 是一种基于深度学习的目标检测模型,将目标检测问题看作是一个回归问题,通过一个神经网络直接预测出目标的类别和位置。YOLO 算法在物体检测上具有速度快、检测效果好等优点,因此在目标检测领域得到了广泛应用。Y
13、OLO 从 v1 到 v7 版本进行了多次改进7,下面将对其进行简要介绍。YOLOv1(You Only Look Once version 1,YOLOv1)由 Joseph Redmon 等在 2015 年提出。YOLOv1 的核心思想是将目标检测问题转化为一个回归问题,即将物体的位置和类别信息直接预测出来,而不是先进行区域提取,再对提取的区域进行分类和回归。YOLOv1 网络结构由全卷积神经网络(Fully Convo-lutional Networks,FCN)构成,由输入层、卷积层、下采样层、全连接层和输出层组成。其中,卷积层和下采样层用于提取特征,全连接层用于将特征映射到输出层,输
14、出层负责输出检测结果。相比传统的目标检测方法,YOLOv1 具有检测速度快、准确率高的优点,但也存在定位误差较大、对小目标检测效果较差等缺点。YOLOv2(You Only Look Once version2)是 2017年提出的目标检测算法。相比 YOLOv1,其解决了召回率和定位精度不足的问题。YOLOv2 使用 An-chor 机制和 K-means 聚类,提高了召回率,并将浅层特征与深层特征相连,有助于对小尺寸目标的检测。YOLO9000 能够实时检测超过 9 000 种物体,主要基于 YOLOv2。其速度更快、精度更高,可以适应多种尺寸的图像输入。YOLOv3(You Only L
15、ook Once version 3)是 YO-LO 系列的第三代目标检测算法,由 Joseph Redmon 等在 2018 年提出。相较于 YOLOv2,YOLOv3 在提高检测准确性的同时,进一步提高了检测速度,通过卷积模块、主干网络、批量归一化、交叉熵损失函数、预测框调整和多尺度预测等方法,YOLOv3 在检测准确性和速度上都有了显著提高,成为目标检测领域的一个重要算法。YOLOv4(You Only Look Once version4)于 2020年由 Alexey Bochkovskiy 等提出,相较于前一版YOLOv3,其采用 CSPNet 骨干网络、多尺度训练策略、多样化的数
16、据增强、高斯混合损失函数、预训练模型、Bag of Freebies 和 Bag of Specials 等技术进行改进,从而在检测准确率和速度上均有了显著提升,同时具有更好的泛化能力。YOLOv5(You Only Look Once version5)由 Ultra-lytics 于 2020 年提出。相较于 YOLOv4,YOLOv5 采用了轻量级的模型结构,引入了大量的模型优化技术,包括自适应多尺度训练、优化的 anchor boxes、流式数据加载和缓存和 NVIDIA Apex 混合精度训练等,从而在检测准确率、速度和模型大小等方面均有显著提升,成为目标检测领域中一种性能优秀的算法
17、。YOLOv7(You Only Look Once version 7)最大的贡献 是 用 原 始 的 视 觉 几 何 组(Visual Geometry Group,VGG)网络代替 ResNet9-10网络,在训练时,使用 ResNet-style 的多分支模型,在测试时,转化成VGG-style 的单线路模型,主要的方法是在测试时,将训练时的多分支模型进行合并得到一条单线路模型,即将 1 1 卷积、BN(批标准化)与 33 卷积进行合并。而 YOLOv6 与 YOLOv7 的发行时间非常接近,这里不过多阐述。YOLO 从 v1 版本到 v7 版本进行了大量的更改,其中包括主干网络的更改
18、、卷积模块的更改、损失函数的更改和训练的策略等。然而现有版本的YOLO 对于木材端面检测仍然存在不少问题:低版本的 YOLO 模型识别率不高,高版本对于训练样本数量高,对于仅有较少量样本的木材端面图像集难541森 林 工 程第 39 卷以适用,且高版本的 YOLO 运行要求也高,一定程度限制其使用范围。因此,如何选择合适的结构用于检测自己特定的数据集并达到良好的识别效果是一个很有挑战的问题,本研究面向木材端面检测需求,结合 YOLO 系列模型的特点,从数据增强、特征融合和损失函数优化等多方面入手,提出一种适用于原木端面检测的新模型。2 YOLO-RW 改进算法设计2.1 识别对象分析本研究木材
19、堆放图像的采集地点为江西省赣州市上犹县某国营林场及龙南市某乡镇木材检验所,复杂原木端面拍摄图像如图 1 所示。由图 1 可知,木材端面的轮廓摄影距离近,在光线充分照射的情况下能够维持基本的颜色和形状特征,但木材堆积的密集度和木材的保管时间过长会导致木材端面的腐蚀、裂纹等缺陷,从而使木材端面的形状特征不规则且不完整。在木材端面径级识别方法中,传统的 R-G(红-绿)色差分割方法难以在图像中含有大量木材端面轮廓的情况下完全分离木材轮廓。虽然支持向量机可以对密集堆放的原木端面进行检测识别和分类,但是由于正负样本的限制,无法适应所有环境中的原木轮廓径级识别。因此,本研究通过数据增强、优化网络结构等方法
20、,对原木端面图像进行处理,并通过端到端的整体训练使神经网络自适应地学习原木端面轮廓所需要的特征,从而实现在复杂环境下精确识别原木端面轮廓。图 1 复杂原木堆积图像Fig.1 Complex log stacking image2.2 YOLO-RW 主干网络优化基于对 YOLO 模型内容的阐述,受数据集中图像数量较小的限制,原木检测任务并不适合过于复杂的网络结构(YOLOv6,YOLOv7 等),而早期的YOLO 版本(YOLOv1,YOLOv2 等)对于目前的深度学习框架性能不佳。因此本研究采用 YOLOv3 的主干网络框架并作大量的简化和改进,模型的整体流程如图 2 所示。下采样模块Low
21、er?sampling?module输入图像Input?image融合模块Fusion?module预测模块Prediction?moduleConv输出图像Output?image下采样模块Lower?sampling?module特征融合FeatureFusion?特征融合FeatureFusion?ConvConv525225526262551313255ConvConvConvConvReLUReLUCAPxy融合模块Fusion?moduleConvBNReLUResNet?Bolck38Sigmoid图 2 YOLO-RW 模型结构Fig.2 YOLO-RW model struc
22、ture641第 5 期曾小山,等:基于 YOLO-RW 模型的机器视觉原木端面识别定位 YOLO-RW 由 3 部分组成:下采样模块、融合模块和预测模块,其中,下采样模块使用 33 的卷积层、批归一化层、激活函数层和若干组 ResNet Block组成,这一模块将输入图像下采样到 5252 大小的特征图,如图 2 右下角所示。接着,下采样至 2626大小的特征图与 1313 大小的特征图,再经过融合模块进行特征融合,该模块的设计基于注意力特征融合(Attentional Feature Fusion,AFF)16,将不同维度的特征融合到一起。具体来说,给定 2 个不同尺寸度的特征图(x,y)
23、,低维度特征图 y 经过卷积核为 33,步长为 2 的卷积层进行下采样,再经过一层11 的卷积层获得低维特征图,而高维特征图 x 经过一层全局平均池化层获得全局特征,经过 33 的卷积层与 ReLU 激活层,最后再经过一层 11 的卷积层获得高维全局特征图,将 2 种特征相加,再经过一层 sigmoid 层,分别与原特征 x、y 相乘,得到最终的融合特征,具体流程如图 2 左下角所示。之后将得到的 3 种维度的特征图分别经过一层 33 的卷积层,得到最终的预测特征,该特征的维度与 yolov3中的结果相同,最后根据预测结果得到输出图像。2.3 YOLO-RW 损失函数设计通过对各类损失的研究与
24、试验,YOLO-RW 共有 3 种损失,置信度损失、分类损失以及定位损失。其中,置信度损失使用二元交叉熵损失,见式(1)。Lconf(o,c)=-i(oiln(ci)+(1-oi)ln(1-ci)N。(1)式中:Lconf为置信损失;ci=Sigmoid(ci);oi0,1,表示预测目标边界框与真实框的 IoU(Intersection o-ver union);c 为预测值,c为 c 通过 Sigmoid 函数得到的置信度;N 为正样本个数。分类损失同样使用二元交叉熵损失,具体损失见式(2)。Lcla(O,C)=ipos jcla(ijln(ij)+(1-ij)ln(1-ij)Npos。(2
25、)式中:ij=Sigmoid(cij);oij0,1,表示预测目标边界框 i 中是否存在第 j 类目标;cla 表示分类损失;pos 表示图像坐标位置;其他参数与式(1)一致。最后,定位损失见式(3)。Lloc(t,g)=ipos(tix)-gix)2+(tiy)-giy)2+(tiw-giw)2+(tih-gih)2Npos。(3)式中:gix=giy-cix;giy=giy-ciy;giw=ln(giw/Piw);gih=ln(gih/Pih)。定位损失只关注正样本。gx、gy、gw和 gh为预测框的中心点坐标以及宽高值。因此,模型的总损失见式(4)。L(o,c,O,C,l,g)=1Lco
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 YOLO RW 模型 机器 视觉 原木 端面 识别 定位
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。