基于深度学习的RGB图像目标位姿估计综述.pdf
《基于深度学习的RGB图像目标位姿估计综述.pdf》由会员分享,可在线阅读,更多相关《基于深度学习的RGB图像目标位姿估计综述.pdf(10页珍藏版)》请在咨信网上搜索。
1、2023 08 10计算机应用,Journal of Computer Applications2023,43(8):2546-2555ISSN 10019081CODEN JYIIDUhttp:/基于深度学习的RGB图像目标位姿估计综述王一1,2,谢杰1*,程佳1,豆立伟2,3(1.华北理工大学 电气工程学院,河北 唐山 063210;2.唐山市金属构件产线智能化技术创新中心,河北 唐山 063210;3.唐山贺祥智能科技股份有限公司,河北 唐山 063000)(通信作者电子邮箱)摘要:6自由度(DoF)位姿估计是计算机视觉与机器人技术中的一项关键技术,它能从给定的输入图像中估计物体的6Do
2、F位姿,即3DoF平移和3DoF旋转,已经成为机器人操作、自动驾驶、增强现实等领域中的一项至关重要的任务。首先,介绍了6DoF位姿的概念以及基于特征点对应、基于模板匹配、基于三维特征描述符等传统方法存在的问题;然后,以基于特征对应、基于像素投票、基于回归和面向多物体实例、面向合成数据、面向类别级的不同角度详细介绍了当前主流的基于深度学习的6DoF位姿估计算法,归纳整理了在位姿估计方面常用的数据集以及评价指标,并对部分算法进行了实验性能评价;最后,给出了当前位姿估计面临的挑战和未来的重点研究方向。关键词:6自由度位姿估计;位姿估计数据集;位姿估计评价方法;深度学习;计算机视觉;工业机器人中图分类
3、号:TP242.2;TP242.62 文献标志码:AReview of object pose estimation in RGB images based on deep learningWANG Yi1,2,XIE Jie1*,CHENG Jia1,DOU Liwei2,3(1.College of Electrical Engineering,North China University of Science and Technology,Tangshan Hebei 063210,China;2.Tangshan Technology Innovation Center of Inte
4、llectualization of Metal Component Production Line,Tangshan Hebei 063210,China;3.Tangshan Hexiang Intelligent Technology Company Limited,Tangshan Hebei 063000,China)Abstract:6 Degree of Freedom(DoF)pose estimation is a key technology in computer vision and robotics,and has become a crucial task in t
5、he fields such as robot operation,automatic driving,augmented reality by estimating 6 DoF pose of an object from a given input image,that is,3 DoF translation and 3 DoF rotation.Firstly,the concept of 6 DoF pose and the problems of traditional methods based on feature point correspondence,template m
6、atching,and three-dimensional feature descriptors were introduced.Then,the current mainstream 6 DoF pose estimation algorithms based on deep learning were introduced in detail from different angles of feature correspondence-based,pixel voting-based,regression-based and multi-object instances-oriente
7、d,synthesis data-oriented,and category level-oriented.At the same time,the datasets and evaluation indicators commonly used in pose estimation were summarized and sorted out,and some algorithms were evaluated experimentally to show their performance.Finally,the challenges and the key research direct
8、ions in the future of pose estimation were given.Key words:6-degree of freedom pose estimation;pose estimation dataset;pose estimation evaluation method;deep learning;computer vision;industrial robot0 引言 随着近年来深度学习的快速发展,基于深度学习的工件位姿测量在现代自动化工厂中变得十分重要。目标位姿包括物体 3 自由度(Degree of Freedom,DoF)的平移和 3DoF 的旋转,是
9、自动化工厂中工业机器人执行抓取、放置、装配等任务的核心要素之一。能否对工件进行准确的位姿估计,获得工件在相机坐标系下的位置和姿态,对推动工业智能化有着重要的意义。在基于视觉的实际装配中,由于作业场景中很少存在严重遮挡和截断的情况,待测目标经常被约束在可以看作成 2维(2D)平面的一个空间中,待测目标 6DoF位姿可以被表示为二维平面内的平移和旋转,因此利用点特征对应和线特征1对应的传统2D特征对应方法能有效解决位姿估计问题。随着工业需求的不断增长,单一场景、单一物体的位姿估计并不能满足复杂的任务需求,而传统的方法在面对场景混乱、物体之间存在严重堆叠情景时难以准确估计出物体位姿,故研究者将目光转
10、向了在目标检测和识别方面具有突破进展的深度学习。深度学习方法是如今机器视觉领域中最具有研究价值的方向之一,相较于传统方法计算效率更高,且对传感器噪声、背景杂波以及环境变化具有更高的鲁棒性,也成为今后位姿估计任务中的重要研究方向2。本文通过对近几年来面向工业生产中的基于RGB图像文章编号:1001-9081(2023)08-2546-10DOI:10.11772/j.issn.1001-9081.2022071022收稿日期:20220713;修回日期:20221104;录用日期:20221107。基金项目:河北省高等学校科学研究项目(ZD2022114);唐山市科技计划项目(21130212C
11、)。作者简介:王一(1981),男,河北唐山人,副教授,博士,主要研究方向:机器视觉感知、图像处理、精密测量;谢杰(1996),男,河北张家口人,硕士研究生,主要研究方向:工业机器人、视觉感知;程佳(1982),女,河北唐山人,实验师,硕士,主要研究方向:仪器仪表检测技术、自动化装置;豆立伟(1983),男,河北唐山人,助理工程师,主要研究方向:机械设计制造及其自动化。第 8 期王一等:基于深度学习的RGB图像目标位姿估计综述的6DoF位姿估计算法分析,整理了各算法在公开数据集上的表现,重点突出各算法的基本内容、优缺点、6DoF位姿估计方面的常用数据集。1 基于计算机视觉的传统目标位姿估计 目
12、标位姿包括目标的位置和姿态两个部分,目标位姿估计是指求解目标所在坐标系相较于相机坐标系之间的平移和旋转关系。基于视觉的目标位姿估计方法一般经过特征提取和目标位姿信息求解两个阶段3。传统的目标位姿估计一般分为 3种方法:1)基于特征点对应的方法:该方法在已知相机内参和n个特征点对应的图像2D坐标和空间3D坐标,利用透视投影变换(Perspective-n-Point,PnP)求解目标在相机坐标系下的坐标,进而得到世界坐标系与相机坐标系的变换关系。求解分为两个部分:首先是特征提取部分,对于纹理特征明显的目标,通常使用尺度不变特征变换(Scale-Invariant Feature Transfor
13、m,SIFT)4、SURF(Speed Up Robust Feature)5、ORB(Oriented FAST and Rotated BRIEF)6等方法;对于弱纹理特征则需要对目标进行人工点对的设置,建立 2D-3D 对应关系。其次是位姿解算部分,分为以牛顿法(Newton Method)、L-M(Levenberg-Marquardt)、比例正交投影迭 代 变 换 算 法(Pose from Orthography and Scaling with Iterations,POSIT)7、正交迭代(Orthogonal Iteration,OI)8为代表的迭代算法和以 EPnP(Eff
14、icient Perspective-n-Point)9、直接线性变换(Direct Linear Transform,DLT)10为代表的非迭代算法。但这两种方法在求解表面纹理不明显的目标时所得位姿并不准确,甚至在无纹理的情况下难以进行位姿求解。2)基于模板匹配的方法:利用OpenGL等渲染工具对目标的三维模型拍摄不同视角,提取各视角下模型的边缘、表面曲率、轮廓等参数信息,对目标物体进行充分采样后形成模板库。在位姿求解时,先粗配准,即将拍摄的目标图像与模板库中的模板进行查询匹配,若匹配误差比设定的阈值小时,把该模板的位姿信息作为待估计目标的粗位姿;接着使用迭代最近点(Iterative Cl
15、osest Point,ICP)等方式进行位姿的细配准,其中最著名的为 LineMod11模板匹配法,该方法提供的 LineMod 数据集如今仍被广泛使用。针对纹理特征不明显的目标时,基于模板匹配的方法具有较强的鲁棒性,但难以处理具有严重遮挡的目标。3)基于三维特征描述符的方法:首先通过三维扫描仪或者 RGB-D 相机获取目标点云信息,利用3D-3D点对求解目标位姿。根据特征描述符的类别可分为全局特征描述符和局部特征描述符:在全局特征描述符方面,受关注的算法有基于快速点特征直方图描述符(Fast Point Feature Histogram,FPFH)12;在局部特征描述符中,受 关 注 的
16、 算 法 有 基 于 点 对 特 征 描 述 符(Point Pair Feature,PPF)13,利用点间距、法向量等数学语言表征出待测目标模型表面的边缘、线条等多种特征,得到准确的 3D-3D 点对。接着采用随机抽样一致算法(RANdom SAmple Consensus,RANSAC)或霍夫投票(Hough Voting)等方式位姿粗配准。最后采用ICP等方式细配准。另外基于数据驱动的传统机器学习方法也被应用在目标位姿估计中。如文献14中采用霍夫投票机制和文献 15 中训练随机森林分类器求解目标位姿。传统的目标位姿估计方法存在很多不足,当待测目标表面纹理不明显时,基于特征点方法的位姿估
17、计精度并不能满足工业任务需求;基于模板匹配的方法虽然能很好地解决无纹理或弱纹理的问题,但难以估计目标存在遮挡或截断时的位姿;基于三维特征描述符的方法由于结合了深度信息,对光照敏感,故不适合用于室外,比较适合室内场景的应用。2 基于深度学习的目标位姿估计 在背景混乱、表面纹理特征不足和物体之间存在严重遮挡和截断时,传统的目标位姿估计将变得不再具有鲁棒性,引入深度学习的方法可以很好地解决这一问题。基于深度学习的位姿估计方法按照在训练集上进行训练的输入数据格 式 可 以 划 分 为 基 于 RGB、RGB-D、点 云 数 据 的 方 法。RGB-D数据需要依赖目标的深度信息,当深度信息出现错误或者缺
18、失时,位姿求解将不能进行;另外,点云数据受光照影响较大和数据噪点较多,对位姿估计的准确度会有一定影响。在工业生产线上,考虑成本和工况的情况下,大多利用视觉辅助机器人完成各项复杂的操作任务,并且从单张RGB图像中估计感兴趣目标的 3D位置和 3D旋转的方法在速度和精度上都有着不错表现。本章对基于RGB图像的深度学习位姿估计方法进行更深入的讨论,给出这些方法的主要思路以及优缺点。2.1基于特征对应的位姿估计基于特征对应的方法是在已知目标的完整3D模型情况下,将输入的RGB图像的2D像素点与之对应,从而从2D-3D对应关系中恢复目标的位姿。该方法主要针对表面具有丰富纹理的目标,通常需要对得到的粗位姿
19、进一步细化获得最终位姿,不足的是对具有对称性的物体位姿估计效果不好。BB816、YOLO-6D17通过将 3D包围框的顶点投影到 2D平面上,得到 3D-2D 的点对关系,之后利用 PnP 求解目标的位姿。BB8将6DoF位姿估计任务分为目标定位和位姿预测两个阶段。在对图像中目标定位时先采用粗分割的方法,目的是将图像背景和待测目标分离。首先,将图像大小调整为512384的RGB图像作为网络的输入,再将图像分割为128128 的图像块;接着将图像块输入到 VGG(Visual Geometry Group)18分类网络中,得到 88的图像块分类结果,此过程可被视作为一个二分类的问题。然后,对图像
20、块评分,将大于设定阈值的图像块视作待测目标,同时将分割中心作为目标的2D中心点。之后,采用细分割的方法将包含最大物体区域的图像部分进行重新调整,将调整完的大小为1616图像块输入到拥有 2个卷积层和 2个池化层的第 2个网络,得到与粗分割类似的6468的图像。接着,根据细分割的结果得到3D包围框,进一步得到目标的中心点。在对目标进行位姿预测时,利用第一阶段粗细分割得到的目标中心点的位置,裁剪出以该点为中心的图像块并输入到第2个VGG网络中,输出为目标的 3D 包围框的 8 个顶点对应的 2D 投影坐标。根据 8 组 3D-2D 的点对,利用 PnP 求解目标的 6DoF 位姿。最后,训练每个物
21、体的卷积神经网络(Convolutional Neural Network,CNN)来提高位姿估计的准确度。从整个过程中可以看出该方法的多阶段性,且并不是端到端的网络,采取粗细分割策略导致推理耗时;另外只是粗略地估计目标的位姿,需要进一步细化提高精度。与BB8不同的是,YOLO-6D是一种端到端的模型,并不需要将6DoF位姿检测网络分为粗配准和细配准两阶段,而2547第 43 卷计算机应用是基于YOLO系列提出一种新的CNN检测网络,不仅能准确预测目标2D位置,还能对存在目标的区域进行高置信度值的预测,对不存在目标的区域赋予低置信度值。在预测目标位姿时,BB8 利用 3D 包围框的 8 个顶点
22、与顶点坐标对应的2D投影点,而YOLO-6D多了一组包围框的中心点与中心点对应的2D投影点,这增加了检测的泛化性,可以适应任意形状的刚性三维物体。最后根据9组3D-2D点对,利用PnP求解目标位姿。文献 19 中在YOLO-6D基础上提出最小尺寸点模型,它的原理也是利用物体3D包围框的8个顶点和1个中 心 点,并 加 入 了 ArUco(Augmented reality University of cordoba)标记码作为视觉辅助手段确定待测物体的位置和姿态。DPOD20是一种3D物体检测和位姿估计的方法,分为多类别的实例物体逐像素预测和3D模型点的对应图的分类两个关键部分。首先在2D-3
23、D对应模块中对输入的RGB图像进行编码操作,之后利用3个解码器得到像素沿着图像的水平方向的位移 U、像素沿着图像的垂直方向的位移量 V、ID-Mask。对应模块输出的是经 U、V 组合的 2D-3D 的映射,ID-Mask实现多个物体类别的分割。在位姿估计块中,通过组合 ID-Mask 和物体的 3D 模型以及得到的 2D-3D 对应,采用PnP 和 RANSAC 进行位姿估计,最终输出物体的变换矩阵,即平移矩阵和旋转矩阵,由于采用后续的位姿细化操作,比较耗时。DPOD 方法优点是与需要高精度的注释工具和大量注释工作的稠密位姿相比,该方法是无注释的,仅需要创建物体的任意 UV纹理贴图。另外,与
24、 iPose21不同,该方法将分割和3D坐标回归统一到端到端的网络中,且不回归3D坐标,而是回归UV图。利用 PnP求解位姿被广泛应用在从给定的 RGB图像中恢复目标6DoF位姿的任务中,如何结合深度学习提出基于PnP 的端到端的估计网络是非常值得研究的问题。文献 22 中提出 BPnP(Backpropagating Perspective-n-Points)网络结构,通过将PnP的残差反向传播给神经网络来指导神经网络的参数更新,并在深度模型中插入BPnP,使得该模型可以从训练集中学习相机内参和外参。针对 PnP问题中的解在某些点上不可微分,导致训练困难和难以收敛的问题,文献23中 提 出
25、基 于 PnP 的 概 率 层 EPro-PnP(End-to-End Probabilistic Perspective-n-Points),将 PnP 求解作为神经网络的一层,通过可学习的2D-3D对应关系进行端到端的位姿估计,并 在 基 于 CDPN(Coordinates-based Disentangled Pose Network)框架中获得了不错的性能。2.2基于像素投票的位姿估计在具有严重遮挡的场景中,依靠目标的局部特征信息对整体的位姿作出判断,利用每个像素或3D点对应的特征点投票,进而得到2D-3D对应关系。在投票方法中,最典型的位姿估计网络为 PVNet(Pixel-wis
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 深度 学习 RGB 图像 目标 估计 综述
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。