基于改进YOLOv4的草莓果柄叶识别与定位.pdf
《基于改进YOLOv4的草莓果柄叶识别与定位.pdf》由会员分享,可在线阅读,更多相关《基于改进YOLOv4的草莓果柄叶识别与定位.pdf(9页珍藏版)》请在咨信网上搜索。
1、第9期黄家才 等:基于改进YO L O v 4的草莓果柄叶识别与定位2 0 5 D O I:1 0.1 3 7 3 3/j.j c a m.i s s n.2 0 9 55 5 5 3.2 0 2 3.0 9.0 2 9黄家才,汪涛,张铎,等.基于改进YO L O v 4的草莓果柄叶识别与定位J.中国农机化学报,2 0 2 3,4 4(9):2 0 5-2 1 3H u a n g J i a c a i,W a n g T a o,Z h a n g D u o,e t a l.R e c o g n i t i o n a n d l o c a l i z a t i o n o f s
2、 t r a w b e r r y s t a l k l e a f b a s e d o n i m p r o v e d YO L O v 4 J.J o u r n a l o f C h i n e s e A g r i c u l t u r a l M e c h a n i z a t i o n,2 0 2 3,4 4(9):2 0 5-2 1 3基于改进Y O L O v 4的草莓果柄叶识别与定位*黄家才,汪涛,张铎,唐安,高芳征(南京工程学院工业中心,南京市,2 1 1 1 6 7)摘要:为降低采摘过程中对草莓果肉造成的损伤,并实现在复杂的实际采摘场景下对草莓果柄
3、的识别和定位,提出一种结合改进YO L O v 4和传统图像处理技术的方案。与传统思维方式不同,该方案将采摘点放在草莓果柄叶上,以确保在采摘过程中草莓的完整性。首先,通过改进YO L O v 4算法,准确定位草莓的位置,然后,利用图像处理技术对果肉、果柄叶和背景进行分割,从而确定采摘点的图像坐标,最后,结合双目定位算法和测距传感器数据,测量采摘点的空间坐标。试验结果表明:改进后的YO L O v 4算法测试精度达到9 0%,并且结合传统图像处理算法后,能够有效消除复杂背景的干扰,从而增强算法的鲁棒性。测距结果显示果柄叶深度距离误差在5mm以内,能够准确地定位采摘点坐标,因此在实际采摘场景中表现
4、出更好的适用性。关键词:草莓采摘;图像处理;神经网络;果柄叶识别中图分类号:T P 2 4 2.6:S 1 2 6 文献标识码:A 文章编号:2 0 9 5 5 5 5 3(2 0 2 3)0 90 2 0 5 0 9收稿日期:2 0 2 2年5月2 3日 修回日期:2 0 2 2年7月2 2日*基金项目:江苏 省 高 等 学 校 自 然 科 学 研 究 重 大 项 目(2 0 K J A 5 1 0 0 0 7);国 家 自 然 科 学 基 金 面 上 项 目(6 1 8 7 3 1 2 0);江 苏 省 重 点 研 发 计 划 课 题(B E 2 0 2 1 0 1 6-5);江苏省自然科
5、学基金面上项目(B K 2 0 2 0 1 4 6 9)第一作者:黄家才,男,1 9 7 7年生,江苏南京人,博士,硕导;研究方向为机器人控制与系统集成,交流伺服控制,机器视觉。E-m a i l:h u a n g j i a c a i 1 2 6.c o mR e c o g n i t i o n a n d l o c a l i z a t i o n o f s t r a w b e r r y s t a l k l e a f b a s e d o n i m p r o v e d Y O L O v 4H u a n g J i a c a i,W a n g T a
6、 o,Z h a n g D u o,T a n g A n,G a o F a n g z h e n g(I n d u s t r i a l C e n t e r,N a n j i n g I n s t i t u t e o f T e c h n o l o g y,N a n j i n g,2 1 1 1 6 7,C h i n a)A b s t r a c t:I n o r d e r t o r e d u c e t h e d a m a g e t o s t r a w b e r r y f r u i t d u r i n g t h e p i c
7、 k i n g p r o c e s s a n d a c h i e v e t h e r e c o g n i t i o n a n d l o c a l i z a t i o n o f s t r a w b e r r y s t e m s i n c o m p l e x p r a c t i c a l p i c k i n g s c e n a r i o s,t h i s p a p e r p r o p o s e s a h y b r i d a p p r o a c h c o m b i n i n g i m p r o v e d
8、 YO L O v 4 a n d t r a d i t i o n a l i m a g e p r o c e s s i n g t e c h n i q u e s.U n l i k e c o n v e n t i o n a l m e t h o d s,t h i s a p p r o a c h p l a c e s t h e p i c k i n g p o i n t o n t h e s t r a w b e r r y s t e m t o e n s u r e t h e i n t e g r i t y o f t h e f r u
9、i t d u r i n g p i c k i n g.F i r s t l y,t h e i m p r o v e d YO L O v 4 a l g o r i t h m i s e m p l o y e d t o a c c u r a t e l y l o c a t e t h e s t r a w b e r r i e s.T h e n,i m a g e p r o c e s s i n g t e c h n i q u e s a r e u t i l i z e d t o s e g m e n t t h e f r u i t,s t r
10、 a w b e r r y s t e m s,a n d b a c k g r o u n d,t h e r e b y d e t e r m i n i n g t h e i m a g e c o o r d i n a t e s o f t h e p i c k i n g p o i n t.F i n a l l y,t h e s p a t i a l c o o r d i n a t e s o f t h e p i c k i n g p o i n t a r e m e a s u r e d b y i n t e g r a t i n g b i
11、 n o c u l a r p o s i t i o n i n g a l g o r i t h m s a n d d i s t a n c e s e n s o r d a t a.E x p e r i m e n t a l r e s u l t s d e m o n s t r a t e t h a t t h e i m p r o v e d YO L O v 4 a l g o r i t h m a c h i e v e s a t e s t i n g a c c u r a c y o f 9 0%a n d,i n c o n j u n c t
12、i o n w i t h t r a d i t i o n a l i m a g e p r o c e s s i n g t e c h n i q u e s,e f f e c t i v e l y e l i m i n a t e s i n t e r f e r e n c e f r o m c o m p l e x b a c k g r o u n d s,t h e r e b y e n h a n c i n g t h e r o b u s t n e s s o f t h e a l g o r i t h m.T h e d e p t h d
13、i s t a n c e e r r o r o f s t r a w b e r r y s t e m s m e a s u r e d b y t h e d i s t a n c e s e n s o r i s w i t h i n 5mm,e n a b l i n g p r e c i s e l o c a l i z a t i o n o f t h e p i c k i n g p o i n t,t h u s e x h i b i t i n g s u p e r i o r a p p l i c a b i l i t y i n p r a
14、c t i c a l p i c k i n g s c e n a r i o s.K e y w o r d s:s t r a w b e r r y p i c k i n g;i m a g e p r o c e s s i n g;n e u r a l n e t w o r k s;s t e m l e a f i d e n t i f i c a t i o n0 引言草莓作为最早一批引入中国的水果,国内现有产地面积已经突破一百多千公顷,产量更是达到百万吨量级,我国已然成为全国最大的草莓生产国,满足国内草莓消费需求的同时还出口给周边国家1。随着全世界对草莓需求的不断增
15、加,国内草莓产地面积也随之逐步增加,但是成熟草莓的采摘工作仍然依靠人工2。第4 4卷 第9期2 0 2 3年9月中国农机化学报J o u r n a l o f C h i n e s e A g r i c u l t u r a l M e c h a n i z a t i o nV o l.4 4 N o.9S e p.2 0 2 32 0 6 中国农机化学报2 0 2 3年困扰草莓采摘机器人发展的主要因素在于作业环境的复杂度。准确识别草莓对象较为困难,同时由于草莓果肉娇嫩易损的特点,采摘机器末端的力度极难把控,会造成果肉损伤或采摘失败的结果3。近年来,基于草莓采摘机械化需求的增加,科
16、研工作者在各方面对草莓机器人进行了深入研究48。谢志勇等5提出了一种基于R G B彩色模型和C I E-X Y Z颜色模型的草莓图像色调分割方法,并对分割后的图像进行形态学处理,如膨胀、腐蚀等,消除了孔洞现象。赵利平等6在图像处理的基础上,提出一种融合GA的三点定位算法,解决了夜间工作环境下苹果定位困难的问题。张继成等7利用神经网络中的残差网络,通过对草莓多角度的拍摄,提取丰富特征从而降低复杂背景的影响。李辉熠等8沿着机器学习的设计思路,构建具有西红柿特征的分类器,提出了一种基于多角度图像特征的西红柿识别方法。上述工作都是在相对简单的采摘环境下进行的研究,在复杂的实际场景中应用效果不明显,鲁棒
17、性相对较差91 0,本文采用神经网络作为草莓识别手段,选择自主制作真实环境下草莓养殖的数据集用以训练,针对复杂环境搭建了合适的训练模型;同时,针对草莓果肉易损的特点,在识别的基础上提出了一种基于图像处理方案的果柄识别方法;最后融合双目测距结果以及测距传感器数据,得到果柄的三维坐标。1 系统研究流程草莓果柄叶识别流程如图1所示。图1 系统流程图F i g.1 S y s t e m f l o w c h a r t首先对收集到的图片进行处理,制作针对实际复杂采摘环境下的数据集;然后送入轻量化后的神经网络训练测试以达到良好的预测模型;之后利用该模型预测实际场景下的草莓位置;接着提取神经网络预测到
18、的草莓位置区域,并对其通过图像处理的手段分割出果肉与果柄叶的区域;随后在果柄叶区域的基础上找到合适的采摘点位置;最后通过相机与测距模块数据融合的手段,计算出实际采摘点的空间位置。2 基于Y O L O v 4的草莓识别算法2.1 数据集制作本文为了使模型达到更好的识别效果,特别选取实际采摘环境下的图片作为数据源,通过网络爬取和实景拍摄的手段获取大量图片1 1,其中网络爬取的图片需要人工进行二次筛选,删除理想环境下的草莓图片避免污染数据集。实际环境图像拍摄于江苏省农博园,园内含有大片垄地草莓以及高架草莓,图片采集了实际采摘中可能遇到的各种情形的草莓生长状态,包含了足够的正面样本和负面样本。拍摄图
19、像包括了各种复杂情况,如遮挡、重叠以及草莓聚集场景等,总共1 5 1 3张图片。本文从上述手段获取的图像中筛选出了1 8 0 0张(其中5 0 0张 来 自 网 络,1 3 0 0张 来 自 实 际 取 景),使 用L a b e l I m g工具手动标注并保存为V O C数据格式。2.2 改进Y O L O v 4神经网络YO L O v 4是一种卷积神经网络,与常规神经网络相比,该网络各层中的神经元都是三维向量(长、宽、高),可以有效解决展开图像丢失空间信息的问题,即使存在大量参数也不会出现训练效率低下、训练结果过拟合的情况。近年来,关于卷积神经网络的研究不断取得突破,衍生出各种优秀的检
20、测算法1 2。这些算法主要分别为两类:一类是以区域卷积神经网络(R-C N N,R e g i o n-C o n v e n t i o n a l N e u r a l N e t w o r k)为 首 的t w o-s t a g e(两 段式)算法;另一类的代表算法是Y O L O(Y o u O n l y L o o k O n c e)、S S D(S i n g l e S h o t M u l t i B o x D e t e c t o r)这 类o n e-s t a g e(一段式)算法1 3。前者需要首先利用算法产生R e g i o n P r o p o
21、s a l(候选区域),然后在该区域上对各部分实现分类回归;后者则是只需要通过一个卷积网络识别不同的目标类别与位置。YO L O系列网络作为o n e-s t a g e算法的代表,其核心思想是利用整张图作为网络的输入,直接在输出层回归B o u n d i n g b o x(预 测 框)的 位 置 和B o u n d i n g b o x所属的类别。该算法采用一个单独的C NN模型实现e n d-t o-e n d的目标检测,首先将输入图片尺寸统一压缩成6 0 8d p i 6 0 8d p i,然后输入卷积神经网络,之后通过网络反 复计算得 到 不 同 区 域 不 同 大 小 的B
22、o u n d i n g b o x,最后利用非极大值抑制算法处理获得预测目标的信息。考虑到草莓识别数量多,同时过多的卷积层会增加计算量影响检测速度,本文从快速性角度出发在第9期黄家才 等:基于改进YO L O v 4的草莓果柄叶识别与定位2 0 7 YO L O v 4算法的基础上替换了原有的B a c k B o n e(主干)网络,即使用VG G 1 6(V i s u a l G e o m e t r y G r o u p)网络替换原始的C S P D a r k n e t 5 3,由原来的5 3层卷积层下降为1 6层卷积层,替换后计算量显著较少。如图2所示为改进后的YO L
23、O v 4网络结构,主要包括输入端、B a c k B o n e、N e c k以及预测端四个部分。其中输入端主 要负责将训 练 集 的 图 像 尺 寸 缩 放 至6 0 8d p i 6 0 8d p i的大小,B a c k B o n e将图像送入1 6层卷积神经网络在不同细粒度上聚合并形成特征,N e c k将不同细粒度形成的特征进行拼接融合形成更加丰富准确的图像特征,H e a d(预测端)对图像进行预测,生成B o u n d i n g b o x并预测对象。B a c k B o n e输出了三种尺度(7 6d p i7 6d p i、3 8d p i3 8d p i和1 9
24、d p i1 9d p i)的特征图像,分别作为N e c k的输入参与图像特征混合,具体做法是将小尺度的图像通过上采样的方法扩大尺度与相同尺度的图像进行拼接。不同于以往的混合手段,YO L O v 4中图像特征的拼接方式保留了更加丰富的特征信息,一定程度上提升了目标识别的准确性,同时降低了计算量,从而更适应于移动端站署。图2 改进Y O L O v 4网络结构F i g.2 I m p r o v e d YO L O v 4 n e t w o r k s t r u c t u r e 图3中,A点 为 预 测 目 标 的 中 心 点,P框 为YO L O算法的先验框(A n c h o
25、 r b o x),B框为神经网络计算得出的预测框,下标w、h分别为对应框的宽和高,Cx和Cy为A点所在g r i d(网格)的左上角坐标,tx和ty是A点 距 离 所 在g r i d边 界 的 相 对 距 离,(x)一般使用S i g m o i d函数处理,其计算公式如式(1)所示,目的是将数值限制在(0,1)的范围以减少计算量。(x)=11+e-x(1)图3 B o u n d i n g b o x计算示意图F i g.3 B o u n d i n g b o x c a l c u l a t i o n s c h e m a t i c本文借鉴迁移学习的思想,将已经训练完成的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 YOLOv4 草莓 果柄 识别 定位
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。