基于多方向特征融合的室外三维目标检测方法.pdf
《基于多方向特征融合的室外三维目标检测方法.pdf》由会员分享,可在线阅读,更多相关《基于多方向特征融合的室外三维目标检测方法.pdf(9页珍藏版)》请在咨信网上搜索。
1、第 49卷 第 11期2023年 11月Computer Engineering 计算机工程基于多方向特征融合的室外三维目标检测方法雷嘉铭1,2,俞辉2,3,夏羽4,郭杰龙2,3,魏宪2,3(1.福州大学 先进制造学院,福建 泉州 362000;2.中国科学院海西研究院 泉州装备制造研究中心,福建 泉州 362000;3.中国科学院福建物质结构研究所,福州 350108;4.上海宇航系统工程研究所,上海 200000)摘要:三维目标检测方法是自动驾驶环境感知系统的重要技术之一,但是现有三维目标检测方法大多存在目标位置识别精度不足、目标朝向预测偏差较大的问题。为此,提出一种基于多方向特征融合的三
2、维目标检测方法。对场景点云进行数据编码,建模距离、夹角等信息并转换成伪图像。利用所提多方向特征融合骨干网络进行特征提取和融合,基于多方向融合特征,利用以中心为基准的检测器进行潜在目标的回归和预测。该方法通过点间距离、夹角建模提供点间的相互关系,丰富特征信息,利用多方向特征融合增强骨干网络的特征提取能力,从而提高位置及朝向的预测精度。实验结果表明,该方法在 KITTI和 nuScenes数据集上的平均精度均值分别为 64.28%和50.17%,相比次优方法分别提升了 0.36和 1.30个百分点,且在朝向预测准确率对比实验中均取得了最好的平均朝向相似度和平均朝向误差。此外,泛化性实验结果验证了所
3、提多方向特征融合骨干网络能提高网络检测能力并大幅减少参数量,从而提升检测方法的应用表现。关键词:机器视觉;激光雷达;三维目标检测;自动驾驶;点云开放科学(资源服务)标志码(OSID):源代码链接:https:/ J.计算机工程,2023,49(11):238-246.英文引用格式:LEI J M,YU H,XIA Y,et al.Outdoor 3D object detection method based on multi-direction features fusion J.Computer Engineering,2023,49(11):238-246.Outdoor 3D Obje
4、ct Detection Method Based on Multi-Direction Features FusionLEI Jiaming1,2,YU Hui2,3,XIA Yu4,GUO Jielong2,3,WEI Xian2,3(1.School of Advanced Manufacturing,Fuzhou University,Quanzhou 362000,Fujian,China;2.Quanzhou Institute of Equipment Manufacturing Haixi Institutes,Chinese Academy of Sciences,Quanz
5、hou 362000,Fujian,China;3.Fujian Institute of Research on the Structure of Matter,Chinese Academy of Sciences,Fuzhou 350108,China;4.Shanghai Institute of Aerospace System Engineering,Shanghai 200000,China)【Abstract】The 3D object detection method is one of the significant technologies in the environm
6、ental perception of autonomous driving.However,most existing 3D object detection methods have the problem of inaccurate position recognition and large orientation deviation.To address these issues,a 3D object detection method based on multi-direction features fusion is proposed.First,to perform data
7、 encoding for a point cloud scenario,modeling distance and angle and transforming into pseudo image.Second,a multi-direction feature-fusion backbone is proposed for features extraction and fusion.Finally,based on the fused features,a center-based detector regresses and predicts potential objects.Dis
8、tance-angle modeling can supply the relationship between points and enrich features.The multi-direction feature-fusion backbone enhances the ability of features extraction and improves the accuracy of position and orientation estimation.The experimental results show that the mean Average Precision(m
9、AP)of this method on the KITTI and nuScenes datasets was 64.28%and 50.17%,respectively,which is an improvement of 0.36 and 1.30 percentage points,respectively,compared to those of the suboptimal method.In addition,the best Average Orientation Similarity(AOS)and mean Average Orientation Error(mAOE)we
10、re achieved in the orientation prediction accuracy comparison experiments.The generalization experimental results verified that the proposed multi-direction feature-fusion backbone network can improve network detection ability and significantly reduce the number of parameters,thereby improving the a
11、pplication performance of the detection method.基金项目:福建省科技计划项目(2021T3003);泉州市科技项目(2021C065L)。作者简介:雷嘉铭(1995),男,硕士研究生,主研方向为三维目标检测、机器视觉;俞 辉(通信作者),副研究员、博士;夏 羽、郭杰龙,工程师、硕士;魏 宪,研究员、博士。收稿日期:2022-11-09 修回日期:2022-12-21 Email:图形图像处理文章编号:1000-3428(2023)11-0238-09 文献标志码:A 中图分类号:TP391.4第 49卷 第 11期雷嘉铭,俞辉,夏羽,等:基于多方向
12、特征融合的室外三维目标检测方法【Key words】machine vision;lidar;3D object detection;autonomous driving;point cloudDOI:10.19678/j.issn.1000-3428.00662140概述 三维目标检测作为环境感知的重要手段,在自动驾驶系统中具有重要意义1-3。激光雷达由于具有精度高、分辨率高、抗干扰能力强以及测距范围广等特点4-5,因此在目前大部分的室外三维目标检测方法中作为主要传感器使用6。在自动驾驶应用中,为了满足实时性的要求,大部分方法首先将点云划 分 为 规 则 的 网 格,如 体 素(voxel)
13、7-8或 点 云 柱(pillar)9,这一过程不仅对庞大的点云数据进行了降采样,而且还将不规则的数据转变成规则的数据,从而节省了更多的内存和时间10。文献 11-12 提出了 PointNet方法,通过神经网络直接处理点云,增强了对点云的特征表示能力,为将离散稀疏点云转换为规则张量形式奠定了基础。VoxelNet7首先将点云划分为固定大小的体素,并通过体素特征编码(Voxel Feature Encoding,VFE)将多个点的信息聚合成一个体素的特征,从而将数据从不规则的形式转变成规则的张量形式,最后利用三维卷积进行特征提取。SECOND8同样将点云变成体素,针对点云体素化后的稀疏问题提出
14、了稀疏卷积,有效改善了三维卷积代价高昂的问题,并在KITTI 数据集13-14上取得了良好的实时性。不同于上述工作,PointPillars9选择将点云表示成点云柱,并通过映射将点云柱转变为伪图像(pseudo image),回避了耗时的三维卷积而采用速度更快的二维卷积进行特征提取,极大地缩短了网络检测时间。基于上述两种体素化方法,有很多学者提出了改进方案来提升检测性能。如文献 15 提出了 CenterPoint,与以往基于框的检测器不同,CenterPoint 中设计了一个基于中心点的检测器,同时使用基于点特征的细化模块作为网络的第二阶段,在 nuScenes16和Waymo17数据集上取
15、得了良好的结果。为了探索点云的形状信息,文献 18 提出了一种新颖的形状签名(shape signature)用于显式捕捉点云的三维形状信息,并基于此构建了SSN(Shape Signature Network)。在真实复杂的驾驶场景中,目标的朝向复杂多样。例如,将 nuScenes 数据集的标注目标按朝向角-均匀分成 10 个小区间进行数量统计,每个区间均有大量的目标,而且现有的三维目标检测方法在位置估计及朝向预测上的表现仍有不足。为了提升智能驾驶系统的可靠性和安全性,作为系统环境感知的重要方式,三维目标检测方法不仅需要准确识别目标位置,还需要具有良好的朝向预测能力。为了提高目标位置识别和朝
16、向预测的准确率,较常用的方法是数据增强,即在训练时对场景点云进行随机缩放、旋转等,从而丰富样本,在一定程度上增强了检测网络的泛化性并提高了其检测准确率。然而,数据增强的本质是增加训练样本的丰富度以增强网络的泛化性能19,并没有真正提高检测网络的特征表达能力及对潜在目标的检测能力。针对现有三维目标检测方法目标位置识别精度不足、朝向预测偏差较大的问题,本文提出一种基于多方向特征融合的三维目标检测方法。在网络初期,该方法建模了点与点之间的距离、夹角等信息,为后续特征提取与回归预测提供丰富的信息。其次,利用新颖的多方向特征融合骨干网络进行多方向特征提取,融合潜在目标多个方向上的特征。最后,在 KITT
17、I 和 nuScenes 数据集上进行实验以验证本文所提方法的有效性。1基于多方向特征融合的三维目标检测方法本文所提三维目标检测方法整体框架如图 1 所示。该方法以多帧聚合后的激光雷达点云作为输入,最终输出若干个三维预测框20,包含物体的位置、尺寸、朝向、速度、类别等信息。其主要结构包括:点间距离、夹角建模的点云数据编码;多方向特征融合骨干网络,用于对编码后的点云伪图像进行多方向特征提取;检测器,基于提取到的特征进行回归与预测,输出预测框。1.1点间距离、夹角建模的点云数据编码本文方法的第一部分是对大规模场景点云进行点 间 距 离 及 夹 角 建 模 的 点 云 数 据 编 码,如 图 2所示
18、。图 1三维目标检测方法整体框架Fig.1Overall framework of 3D object detection method2392023年 11月 15日Computer Engineering 计算机工程该数据编码基于 PointPillars 所提的点云柱编码9进行修改,并考虑对点与点之间的距离以及夹角信息进行建模。激光雷达能够提供较精确的全局位置信息(xjyjzj),但是缺乏点云规则化后点间的局部关系。为了隐式表示点云物体的几何形状,对点间距离进行建模,将点与点集中心的距离作为补充特征,即dajcaa=xyz,其中ca=1Nij=1Niajaj=xjyjzj表示点云柱内点集
19、的平均坐标。此外,为了提高网络对目标朝向的表征能力,对点间夹角进行建模,如式(1)所示:j=arctanzj-zidx2+dy2(1)其中:-zi=cz表示点云柱内点集中心的z坐标;dx和dy分别表示点与点集中心x和y坐标的距离。经过距离及夹角建模后,mini-PointNet 接收的每个点的输入如式(2)所示:pi=xiyiziIxpiypiidxicxdyicydzicz(2)其 中:xiyiziI为 点pi的 原 始 坐 标 和 反 射 强 度;xpiypi为点pi到点云柱中心的距离;idxicxdyicydzicz的 含 义 如 上 所 述。经 过 mini-PointNet,输 入
20、由NM10变成N64,其中,N表示点云柱的最大数量,M表示每个点云柱内点的最大数量。最后经过坐标映射得到伪图像D=CHW,其中,HW表示伪图像的长宽,与输入点云范围以及点云柱的预设尺寸有关。1.2多方向特征融合骨干网络在数据编码后,稀疏不规则的点云数据转变成规则的伪图像。现有方法大部分利用卷积神经网络(Convolutional Neural Network,CNN)对伪图像进行特征提取。然而普通的 CNN 在特征提取过程中卷积核保持不变,只能提取到一个方向上的特征,这在面对复杂的驾驶场景时难以提取丰富的特征信息。因此,为了增强网络的特征提取能力,改善三维目标检测方法目标位置识别精度不足、朝向
21、预测偏差较大的问题,本文提出一种多方向特征融合的骨干网络,该网络主要包括 2个结构,分别是空间提升层以及多方向卷积层。1)空间提升层。空间提升层作为多方向特征融合骨干网络的第一部分,对输入进行维度扩展,将伪图像D X转换到高维空间Y中。定义卷积核 X,空间提升卷积 D定义为:D(tr):=p Z2(tr)-1p)D(p)=p Z2(r-1(p-t)D(p)(3)其中:D(p)表示伪图像D中的某一个像素点p的值;(tr)表示P4群的元素,即对点p Z2先进行r C4的旋转然后进行t平移。空间提升层如图 3所示,该层只有一组卷积核,但是在卷积过程中会对卷积核进行 4 次 90的旋转,从而得到 4
22、组特征图。连接在该层后面的是修改的归一化层以及 ReLU层,对输出进行归一化21以及 ReLU 操作。4 组特征图构成了额外的维度,即伪图像输入D RCin H W,经过空间提升层后所得输出为y R4 Cout H W。为了简洁表示,令g=(tr)C4,可以证明空间提升层满足旋转等变性22-23,如式(4)所示:(RD)(g)=y Z2kDk(R-1y)k(g-1y)=y=Ry y Z2kDk(y)k(g-1Ry)=y Z2kDk(y)k(R-1g)-1y)=R(D)(g)(4)其中:R表示旋转变换。2)多方向卷积层。经过空间提升层后,特征图y处于高维空间Y中。在空间Y中,P4群中的自然操作满
23、足式(5):(tr)y(ps)=y(tr)-1(ps)=y(r-1(p-t)r-1s)(5)其中:(ps)为P4群的元素索引;s=0123表示逆时针旋转s次90;(tr)表示对特征图的平移t和旋转r操作。根据群理论并结合上述方程构建空间Y上的多方向卷积,如式(6)所示:图 3空间提升层Fig.3Space lifting layer图 2点间距离、夹角建模的点云数据编码Fig.2Point cloud data encoding for modeling distance and angle between points240第 49卷 第 11期雷嘉铭,俞辉,夏羽,等:基于多方向特征融合的室
24、外三维目标检测方法 y(tr):=s C4p Z2(tr)-1(ps)y(ps)=s C4p Z2(r-1(p-t)r-1s)y(ps)=s C4p Z2(r-1(p-ts)y(ps)=s C4p Z2r (p-ts)y(ps)(6)其中:p Z2r (p-ts)y(ps)表示在固定s的情况下(即卷积核r(s):Z2 R)对图像y(s):Z2 R进行卷积操作。多方向卷积层如图4所示,该层具有4组卷积核,4组卷积核先对同一特征图xi RCin H W进行卷积操作,然后堆叠输出yi RCout H W,随后 4组卷积核将严格按照群的操作进行旋转和平移,对下一个特征图进行操作,以此类推。最终输入和输
25、出的维度保持一致,即输入x R4 Cin H W,输出y R4 Cout H W。相比于普通卷积,多方向卷积层的卷积核权值能够在 4个群元素之间共享,提取 4个方向上的特征信息,并且在最后进行拼接融合。相比于传统的卷积操作,其具备更强的特征捕获和表达能力。同时,其输入与输出维度一致,因此,可以叠加该层获得深度网络,以更好地提取特征。空间提升层和多方向卷积层与普通卷积层的对比如表 1所示。基于上述 2 个结构,构建一个多方向特征融合骨干网络,结构如图 5 所示(彩色效果见 计算机工程 官网 HTML版)。该骨干网络首先通过空间提升层将输入特征图变换到空间Y中,然后通过叠加多方向卷积层(或多方向反
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 多方 特征 融合 室外 三维 目标 检测 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。