基于车辆外观特征和帧间光流的目标跟踪算法.pdf
《基于车辆外观特征和帧间光流的目标跟踪算法.pdf》由会员分享,可在线阅读,更多相关《基于车辆外观特征和帧间光流的目标跟踪算法.pdf(16页珍藏版)》请在咨信网上搜索。
1、第42卷 第1期2024年1月应用科学学报JOURNAL OF APPLIED SCIENCESElectronics and Information EngineeringVol.42 No.1Jan.2024DOI:10.3969/j.issn.0255-8297.2024.01.009基于车辆外观特征和帧间光流的目标跟踪算法李绍骞1,程鑫1,周经美2,赵祥模11.长安大学 信息工程学院,陕西 西安 7100642.长安大学 电子与控制工程学院,陕西 西安 710064摘摘摘要要要:在复杂道路场景下,车辆目标之间频繁遮挡、车辆目标之间相似的外观、目标整个运动过程中采用静态预设参数都会引起跟
2、踪准确率下降等问题。该文提出了一种基于车辆外观特征和帧间光流的目标跟踪算法。首先,通过 YOLOv5 算法中的 YOLOv5x 网络模型获得车辆目标框的位置信息;其次,利用 RAFT(recurrent all-pairs field transforms for opticalflow)算法计算当前帧和前一帧之间的光流,并根据得到的位置信息对光流图进行裁剪;最后,在卡尔曼滤波过程中利用帧间光流进行补偿得到更精确的运动状态信息,并利用车辆外观特征和交并比特征完成轨迹匹配。实验结果表明,基于车辆外观特征和帧间光流的目标跟踪算法在 MOT16 数据集上表现良好,相较于跟踪算法 DeepSORT,成
3、功跟踪帧数占比提高了 1.6%,跟踪准确度提升了 1.3%,跟踪精度提升了 0.6%,改进的车辆外观特征提取模型准确率在训练集和验证集上分别提高了 1.7%、6.3%。因此,基于高精度的车辆外观特征模型结合关联帧间光流的运动状态信息能够有效实现交通场景下的车辆目标跟踪。关键词:目标跟踪;车辆外观特征;帧间光流;卡尔曼滤波中图分类号:TP391.4文章编号:0255-8297(2024)01-0103-16Object Tracking Algorithm Based onVehicle Appearance Features andInter-frame Optical FlowLI Shao
4、qian1,CHENG Xin1,ZHOU Jingmei2,ZHAO Xiangmo11.College of Information Engineering,Changan University,Xian 710064,Shaanxi,China2.College of Electronic and Control Engineering,Changan University,Xian 710064,Shaanxi,ChinaAbstract:In complex road scenes,frequent occlusions and similar appearances between
5、vehicle targets,coupled with the use of static preset parameters used throughout the entiremovement of the targets collectively contribute to a decline in tracking accuracy.Thispaper proposes an object tracking algorithm based on vehicle appearance features andinter-frame optical flow.Firstly,the po
6、sition information of the vehicle target frame is收稿日期:2023-06-29基金项目:国家重点研发计划(No.2021YFB2501200);国家自然科学基金(No.52102452);陕西省重点研发计划(No.2023-YBGY-119);陕西省自然科学基础研究计划面上项目(No.2023-JC-YB-523);陕西省创新能力支撑计划(No.2022KJXX-02);陕西省交通运输厅交通科研项目(No.21-05X);陕西省高校科协青年人才托举计划(No.20210122);中央高校基本科研业务费专项资金项目(No.300102242203
7、)资助通信作者:程鑫,副教授,研究方向为深度学习与计算机视觉、人工智能与车联网技术。E-mail:104应用科学学报第42卷obtained through the YOLOv5x network model.Secondly,the optical flow between thecurrent frame and the previous frame is calculated using the RAFT(recurrent all-pairsfield transforms for optical flow)algorithm,and the optical flow map is c
8、lipped accordingto the obtained position information.Finally,in the process of Kalman filtering,inter-frameoptical flow is used to compensate for more accurate motion state information,while ve-hicle appearance features and intersection over union(IOU)features are used to completetrajectory matching
9、.Experimental results show that the tracking algorithm correlatinginter-frame optical flow performs well on the MOT16 data set.Compared with simpleonline and realtime tracking with a deep association metric(DeepSORT),mostly trackedtrajectories(MT)has increased by 1.6%,multiple object tracking accura
10、cy(MOTA)hasincreased by 1.3%,and multiple object tracking precision(MOTP)has increased by 0.6%.The accuracy of the improved vehicle appearance feature extraction model has been im-proved by 1.7%and 6.3%on the training and verification sets,respectively.Consequently,leveraging the high-precision vehi
11、cle appearance feature model and motion state informa-tion from the associated inter-frame optical flow enables effective vehicle target tracking intraffic scenes.Keywords:object tracking,vehicle exterior features,inter-frame optical flow,Kalmanfilter目标跟踪算法在机器人视觉、视频监控和无人驾驶等领域有着广泛的应用1,实现高精度和实时的目标跟踪是一
12、项具有挑战性的任务。目标跟踪主要利用目标检测算法、数据关联2与运动估计算法3-4进行处理,首先,通过目标检测算法得到图像中目标的位置信息,之后通过数据关联与运动估计算法预测并更新目标整个运动过程的轨迹信息。在理想情况下,整个运动过程中目标 ID 的变换周期与目标出现到消失的周期相同,并且在这一周期内 ID 不发生变换5。但是道路环境复杂、车辆目标之间的频繁遮挡和相似的外观导致跟踪算法的准确率降低6,并且多数目标跟踪算法仅采用预设参数作为目标整个运动过程的运动状态参数,因此,寻找一个更具有普适性的参数来描述目标运动的状态,对提升目标跟踪算法的准确率具有重要意义。1相关工作为解决上述提到的频繁遮挡
13、以及相似外观带来的跟踪算法准确率降低等问题,目前常用的方法是通过深度学习模型来提取目标外观特征,然后计算目标的外观相似性。例如,可以将卷积神经网络(convolutional neural network,CNN)集成到经典的目标跟踪算法中提取目标的外观特征,在后续的跟踪过程中利用不同目标之间的外观特征计算两者间的外观相似性来重新识别对象7,进而完成相同目标之间匹配的任务。常见的跟踪算法 DeepSORT(simpleonline and realtime tracking with a deep association metric)采用检测和 Re-ID 模型分离的策略实现跟踪,相较于联合
14、检测和 Re-ID 模型8-10的跟踪算法,分离策略的模型更加简单,且耦合性更低,因此本文选择检测和 Re-ID 模型分离的 DeepSORT 作为跟踪的基础算法。光流描述的是连续两帧之间的运动信息。在深度学习未应用于计算机视觉领域之前,通常利用 Horn-Schunck 和金字塔 LK(Lucas-Kanada)计算图像间的光流信息,之后可以通过光流图进行展示,光流图中不同的颜色以及颜色的深浅代表像素速度大小和方向信息。文献 11-12 通过 CNN 直接对两帧之间的光流进行预测,避开了传统算法需要优化的问题。文献 13 提出的 PWC-Net(CNNs for optical flow u
15、sing pyramid,warping and cost volume)通过卷积神经网络得到图像特征,从低分辨率开始估计光流,之后上采样到高分辨率,同时构建第1期李绍骞,等:基于车辆外观特征和帧间光流的目标跟踪算法105成本代价矩阵预测当前分辨率的光流,逐步得到最终分辨率的光流,后续很多光流算法基于此框架实现。文献 14 提出的 RAFT(recurrent all-pairs field transforms for optical flow)通过卷积神经网络逐像素点提取特征,构建 4D 像素点关联性金字塔,通过像素点的 4D 关联信息,利用门控循环神经网络迭代更新光流场。RAFT 通过不
16、同尺度的光流相关性特征,解决了不同尺度光流估计不准确的问题。随着 CNN 的发展,研究人员首先将孪生网络应用于目标跟踪领域,通过基于端到端的全卷积孪生网络计算后续图像帧与第 1 帧模板之间的相似度特征,进而解决目标遮挡的问题,但当图像出现多个目标交替遮挡时跟踪性能会大幅下降。文献 6 提出的新型多目标跟踪网络,首先利用孪生网络提取待检测目标的外观信息,再通过光流和卡尔曼滤波计算得到运动信息,最后将目标与现有轨迹关联起来得到跟踪结果。近年来,Tracking-by-detection7已成为主要的跟踪范式,这得益于深度学习和目标检测技术的成熟。Tracking-by-detection主要分为检
17、测和关联匹配两步。首先对象检测器独立发现视频流中每一帧的潜在目标,然后与上一步中得到的检测进行关联。Tracking-by-detection 根据位置或身份特征维护每个轨迹的状态,并根据其最后可见状态将当前帧检测与每个轨迹相关联15。文献 16 提出的目标跟踪算法 SORT(simple online and realtime tracking)首次在多目标跟踪问题上应用Tracking-by-detection 架构,该算法更加注重于实时在线跟踪,以 Faster RCNN 作为目标检测算法,向跟踪器中输入前一帧和当前帧的检测信息,通过卡尔曼滤波算法和匈牙利算法关联前后两帧的数据,进而实现
18、目标的跟踪,但这种方法的数据关联度量信息有限,无法满足遮挡情况下的目标跟踪需求。基于 Tracking-by-detection 架构的方法需要两个模块都进行特征提取,实时性较差,为此文献 10 提出的检测和跟踪联合(joint detection and embedding,JDE)算法将检测和跟踪模块集成到单一网络中进行训练,该方法能够通过单一网络实现分类、定位与跟踪任务,但较易产生误检。文献 17 提出了一种基于卡尔曼滤波器和匈牙利算法的跟踪方法。该方法首先利用卡尔曼滤波器建立运动模型,然后利用匈牙利算法对目标间的关联进行优化求解。该算法在实时速度上具有明显优势,但当目标运动复杂且当前帧
19、中目标检测丢失时,卡尔曼滤波器预测的边界框与输入不匹配,不可避免地会漏掉一些轨迹。受上述文献启发,针对车辆目标跟踪任务,本文充分考虑目标跟踪算法静态预设参数的不确定性,设计了基于相邻帧光流变化的运动状态信息更新算法;考虑车辆目标运动过程中发生的遮挡和相似外观问题,设计了车辆外观特征提取模型,提出了基于车辆外观特征和帧间光流的目标跟踪算法。2跟踪算法流程跟踪算法流程如图 1 所示。选择相邻两帧图像作为 RAFT 算法的输入,计算光流场变化并生成光流场变化图;通过 YOLOv5 算法中的 YOLOv5x 网络模型获得车辆目标框的位置信息;利用车辆目标框的位置信息对光流场变化图进行裁剪得到光流小图,
20、即帧间光流;在卡尔曼滤波更新运动状态信息时利用帧间光流进行补偿进而得到更精确的运动状态信息,并利用车辆外观特征和交并比(intersection over union,IOU)完成轨迹匹配,实现目标跟踪任务。图 2 为跟踪算法的详细流程图。2.1关联帧间光流光流法是计算相邻帧之间像素运动信息的方法,计算出的光流表示像素在时间域 x 和 y方向上的运动变化。假设图像上的一个像素点(x,y)在 t 时刻的亮度为 I(x,y,t),根据亮度恒定假设,在 t+dt 时刻的亮度 I(x+dx,y+dy,t+dt)与 t 时刻的亮度相等,即106应用科学学报第42卷?图 1 算法流程图Figure 1 A
21、lgorithm flow chartFrame1Frame2RAFTYOLOv5?IOU?max_ageFrame2?t(1)(5)式中:t(1)为 2对应 95%置信度阈值,本文取 9.487 7;当 d(1)(i,j)小于阈值时,s(1)i,j取 1,表示预测框和检测框关联成功,否则为 0。为解决当被遮挡目标重新出现在图像中时 ID 的变换问题,需要对一部分帧中的特征进行保存,由集合 Fk表示,公式为Fk=f(i)k,k 1,Lk(6)式中:Lk为存储特征的长度,本文设置为 100。DeepSORT 选择最小余弦距离对外观特征进行度量,公式为d(2)(i,j)=min1 fTjf(i)k
22、|f(i)k Fi(7)式中:d(2)(i,j)为第 i 个关联轨迹与第 j 个检测框的外观特征最小余弦距离。fTjf(i)k为最小余弦距离的归一化结果,与利用马氏距离判断两者相似的方法类似,通过 2设置阈值 t(2),再根据 d(2)(i,j)判断是否关联,表示为s(2)i,j=1,d(2)(i,j)6 t(2)0,d(2)(i,j)t(2)(8)通过运动特征和外观特征构造关联度量函数,公式为ci,j=d(1)(i,j)+(1 )d(2)(i,j)(9)式中:为两种特征的比例系数。计算出来的 ci,j越小表示第 i 条轨迹和第 j 个检测框相似性越大。算法中关联度量还涉及外观特征,通过使用
23、WarmUp 结合 CosineAnnealingLR 的方法在 VERI-Wild 数据集训练车辆外观特征模型,保证外观特征的检测精度,为外观特征的度量提供了更加准确的外观特征提取模型。综合考虑运动状态特征和外观特征来判断第 i 条轨迹和第 j 个检测框是否关联成功,公式为si,j=2Ym=1s(m)i,j(10)基于关联度量的结果利用匈牙利算法进行最优匹配。运动状态信息是后续运动状态度量的重中之重,其中,状态信息中的 x、y 方向的速度由控制位置的方差权重和控制速度的方差权重估计得到。算法引入帧间光流,光流即相邻图像帧间像素在 x、y 方向的速度,通过实时计算连续帧间光流替换卡尔曼滤波过程
24、状态信息中的速度量,融合光流后的运动状态信息相对于使用速度估计值的原始 DeepSORT 算法所采用的运动状态信息,能够对算法的预测过程提供更有利的支撑。引入光流后状态信息转变为:(x,y,a,h,flowx,flowy,a0,h0),其中 flowx和 flowy分别为检测框中心坐标在 x 和 y 方向上的瞬时速度,a0为检测框长宽比的瞬时速度,h0为检测框高的瞬时速度。第1期李绍骞,等:基于车辆外观特征和帧间光流的目标跟踪算法1113实验分析3.1实验平台与数据集实验均基于 python 语言和 pytorch 1.7.0 框架进行实现,实验操作系统为 Windows 10,实验平台内存为
25、 32 G,CPU 为 Intel Coffeelake I9-9900 CPU,GPU 为 GeForce RTX 3090,显存 24 G,CUDA 版本为 11.0。训练目标检测模型选择 BDD100K 自动驾驶数据集,此数据集是目前规模最大、最多样化的开源数据集,由 100 000 个视频组成,每个视频大约 40 s,清晰度为 720 P,视频刷新率为30 帧/s,总时间超过 1 100 h,涵盖了交通场景中多种类的目标,并对道路上常见的目标标注边界框,与此同时,BDD100K 涵盖了道路上出现频次最高的 Bus、Truck、Car 的 3 种数据,能够满足模型应用于交通场景的需求。训
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 车辆 外观 特征 帧间光流 目标 跟踪 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。