基于目标识别与定位技术的机械手研究.pdf
《基于目标识别与定位技术的机械手研究.pdf》由会员分享,可在线阅读,更多相关《基于目标识别与定位技术的机械手研究.pdf(8页珍藏版)》请在咨信网上搜索。
1、针对生活场景中使用机械手进行物体抓取的操作,本文提出了基于针对生活场景中使用机械手进行物体抓取的操作,本文提出了基于Yolov5算法的多目标检测系统,此算算法的多目标检测系统,此算法相较于低版本的法相较于低版本的Yolo算法及算法及R-CNN算法具有计算量小、准确率高的特点。市面中多采用单目相机赋予算法具有计算量小、准确率高的特点。市面中多采用单目相机赋予机械手二维视觉模块,本文在单目相机的基础上,相较于双目相机在获取三维数据时成本高、受环境影机械手二维视觉模块,本文在单目相机的基础上,相较于双目相机在获取三维数据时成本高、受环境影响时特征点无法进行匹配易产生误差的问题,结合结构光模块,生成单
2、目结构光系统,更好地赋予机械响时特征点无法进行匹配易产生误差的问题,结合结构光模块,生成单目结构光系统,更好地赋予机械手获取物体的深度信息的能力,最终得到物体的世界坐标值。通过实验现象表明,获得的平均精度均值手获取物体的深度信息的能力,最终得到物体的世界坐标值。通过实验现象表明,获得的平均精度均值为为96.5%,定位精度相较于双目系统更为精准,最终能够较好地满足机械手完成对于物体在三维空间中,定位精度相较于双目系统更为精准,最终能够较好地满足机械手完成对于物体在三维空间中定位与抓取的需要。定位与抓取的需要。关键词关键词 Yolov5,目标识别,单目结构光,定位,目标识别,单目结构光,定位 Re
3、search on Robotic Arms Based on Target Recognition and Positioning Technology Jiahong Yu,Jixiang Zhang,Jun Zhang School of Electronic Engineering,Tianjin University of Technology and Education,Tianjin Received:Jun.1st,2023;accepted:Jul.28th,2023;published:Aug.7th,2023 Abstract This article proposes
4、a multi-objective detection system based on the Yolov5 algorithm for object grasping using robotic arms in real-life scenarios.Compared to earlier versions of the Yolo algo-rithm and R-CNN algorithm,this algorithm has the characteristics of low computational complexi-ty and high accuracy.Monocular c
5、ameras are often used in the market to endow the manipulator with a two-dimensional vision module.This paper,based on the monocular camera,compared with the binocular camera,which has a high cost in acquiring three-dimensional data,and the 于佳弘 等 DOI:10.12677/airr.2023.123021 182 人工智能与机器人研究 problem t
6、hat the feature points cannot be matched when affected by the environment,is prone to errors.Combined with the structured light module,a monocular structured light system is gener-ated to better endow the manipulator with the ability to obtain the depth information of the object,and finally obtain t
7、he world coordinate value of the object.Through experimental phenomena,it has been shown that the average accuracy obtained is 96.5%,and the positioning accuracy is more accurate than that of the binocular system.Ultimately,it can better meet the needs of the robotic arm for positioning and grasping
8、 objects in three-dimensional space.Keywords Yolov5,Target Recognition,Monocular Structured Light,Positioning Copyright 2023 by author(s)and Hans Publishers Inc.This work is licensed under the Creative Commons Attribution International License(CC BY 4.0).http:/creativecommons.org/licenses/by/4.0/1.引
9、言引言 随着社会的进步与发展,人们对于科技的要求水平逐步增高。在人们日常生活中,物品识别抓取工作已然成为了新型工业、物流分类、无人车间、快速作业等领域必不可少的重要环节1。科技不成熟时,工厂普遍使用较为落后的分拣作业方法利用大量人工进行物品分类堆积。此方法虽然满足了就业需要,但也暴露了效率低、错误率高的弊端2。赋予机械手更加智能化的操作成为了当今世界国内外研究的热潮,而对物体的目标识别及定位技术更是智能化的重中之重。依赖于计算机算力的提升,深度学习已经逐步取代了传统的机器学习,识别准确率极大地提升,机器视觉也随之得到了更好地发展。为了提高机械手对于物体的检测能力并能够准确将物体抓取到特定区域,
10、本文选用 Yolov5 算法进行识别,使用型号为 Astro Pro 的相机搭建单目结构光系统获取深度信息,实现物体的三维空间定位。工作流程为:对单目结构光相机采集到的数据集进行标注后,搭建 PyTorch 环境,使用 Yolov5 模型进行训练,将散斑图与参考平面散斑图使用 SGBM 算法进行图像匹配获取视差图,将视差图转深度图,深度图转点云图,得到物体三维坐标,最终实现抓取。2.Yolov5 算法原理概述算法原理概述 当今流行的目标识别算法大多分为one-stage与two-stage两类,two-stage算法代表是R-CNN 3系列,one-stage 算法代表是 Yolo 4系列。t
11、wo-stage 算法将两步分别进行,原始图像先经过候选框构成网络,例如 Faster R-CNN 中的 RPN 网络5,再对候选框的内容进行分类;one-stage 算法将两步同步进行,输入图像只经过一个网络,生成的结果中同时包含位置与分类信息。two-stage 与 one-stage 相比,虽精确度提高,但运算量增大,速度慢。Yolov5 是一种端到端的深度学习模型,可以直接从原始图像中检测和定位目标。它使用卷积神经网络(CNN)来学习图像中物体的特征,并使用多尺度预测和网格分割来检测和定位目标。Yolov5 在 Yolov4 6的基础上进行了改进,是其工程化的版本。Yolov5 给予使
12、用者了 10 个不同版本的模型,差异点在于网络的深度和宽度,其模型各项参数如图 1 所示。我们可以将 Yolov5 算法的结构划分为四个部分:输入端、骨干网络(Backbone)、颈部网络(Neck)、预测输出(Prediction)。Yolov5 算法整体结构如图 2 所示。Open AccessOpen Access于佳弘 等 DOI:10.12677/airr.2023.123021 183 人工智能与机器人研究 Figure 1.Yolov5 model 图图 1.Yolov5 模型 Figure 2.Overall structure of Yolov5 algorithm 图图 2
13、.Yolov5 算法整体结构 输入端:Yolov5 算法相较于基本的数据增强方法,改进为将 14 张图片进行随机裁剪、缩放,随后随机拼凑生成一张图片,增加目标数量,提升训练速度,降低内存需求。新增自适应锚框计算、自适应图片缩放的方法,训练时根据所选择数据集的不同,自动调整所需锚框的长宽值,并将其进行更新,填充灰色,预测时缩减黑边,使得特征提取更加快速。骨干网络(Backbone):骨干网络用于提取特征,并不断缩小特征图,设计了 Focus 结构7和 CSP 结构。对于 Focus 结构,图片进入 Backbone 前,对图片进行切片操作,在图片中每隔一个像素取一个值,类似于邻近下采样,通过此操
14、作拿到 4 张互补的图片,将 W、H 信息输入通道,即原先图片的 RGB 三通道模式变成了进行拼接后的 12 个通道模式的照片,最后将得到的新图片再经过卷积操作,最终获取到于佳弘 等 DOI:10.12677/airr.2023.123021 184 人工智能与机器人研究 没有信息缺失情况下的二倍下采样特征图。相较于 Yolov4 中只有在骨干网络中使用了 CSP 结构,Yolov5则设计了 CSP1_X 结构使用在骨干网络,其外的 CSP2_X 结构使用于颈部网络中,将原输入分成两个分支,分别进行卷积操作使得通道数减半,通过残差结构再次卷积,将两个分支通过融合后进行正态分布,激活后进行 CB
15、S,使得模型学习到更多的特征,增大感受野8。颈部网络(Neck):颈部网络通常位于骨干网络与 Head 模块之间。图形特征来源于卷积神经网络浅层的特征,如颜色、轮廓、纹理、形状等;语义特征来源于卷积神经网络深层的特征,语义性虽强但却丢失了简单图形。Neck 结构就实现了浅层图形特征和深层语义特征的融合,使特征图的尺度变大,以便获取更加完整的特征。Yolov5 算法中将 SPP 更换成了 SPPF,并在 Pan 结构中加入了 CSP。进一步提升了算法模型对于不同大小图片的检测。预测输出(Prediction):head 层为 Detect 模块,由三个 1*1 卷积构成。通过升维或降维,增大感受
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 目标 识别 定位 技术 机械手 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。