面向视频卫星的多目标跟踪技术.pdf
《面向视频卫星的多目标跟踪技术.pdf》由会员分享,可在线阅读,更多相关《面向视频卫星的多目标跟踪技术.pdf(10页珍藏版)》请在咨信网上搜索。
1、中国空间科学技术F e b.2 5 2 0 2 4 V o l.4 4 N o.1 1 4 4-1 5 3C h i n e s e S p a c e S c i e n c e a n d T e c h n o l o g yI S S N1 0 0 0-7 5 8 X C N1 1-1 8 5 9/Vh t t p:z g k j.c a s t.c nD O I:1 0.1 6 7 0 8/j.c n k i.1 0 0 0-7 5 8 X.2 0 2 4.0 0 1 6面向视频卫星的多目标跟踪技术陈海涛1,2,马骏1,李峰2,*,鹿明3,鲁啸天2,张南21.河南大学 软件学院,开封
2、4 7 5 1 0 02.中国空间技术研究院 钱学森空间技术试验室,北京1 0 0 0 9 43.中国航天科技创新研究院 先进智能算法中心,北京1 0 0 1 6 3摘 要:随着面阵探测器的广泛使用,面向视频卫星的多目标跟踪具有重要意义,但基于图结构的多目标跟踪方法,在图的构建中,大多数从相邻帧提取线索,而忽略了以往帧的线索。针对这个问题,提出了一个端到端的图网络框架,利用从多帧中提取的运动特征、外观特征、拓扑信息等多种线索,对图的节点、边和全局变量进行构建。实现这个统一框架的一个关键原则是为不同的线索和不同的来源(轨迹和检测目标)设计兼容的特征表示和图网络更新机制。该框架以前馈的方式运行,并
3、以在线的方式进行训练。在公共数据集V I S O、MOT 1 6、MOT 1 7基准上评测,取得了9 9.8%、4 8.8%、5 1.8%的多目标跟踪精度,优于其他相关多目标跟踪算法,并通过消融试验验证了各个线索对多目标跟踪性能提高的有效性,未来在智慧交通、智慧城市、军事战争等诸多领域具有广泛应用场景。关键词:多目标跟踪;视频卫星;图结构;时空信息;运动特征;外观特征中图分类号:V 1 9 文献标识码:A收稿日期:2 0 2 2-0 7-2 6;修回日期:2 0 2 2-0 9-2 9;录用日期:2 0 2 2-1 0-0 9基金项目:科技部重点研发计划(2 0 2 0 Y F A 0 7 1
4、 4 1 0 0);国家自然科学基金青年科学基金项目(4 2 2 0 1 4 4 2)*通信作者.E-m a i l:f e n g_l i a l i y u n.c o m引用格式:陈海涛,马骏,李峰,等.面向视频卫星的多目标跟踪技术J.中国空间科学技术,2 0 2 4,4 4(1):1 4 4-1 5 3.C HE N H T,MA J,L I F,e t a l.A n e w m u l t i-t a r g e t t r a c k i n g m e t h o d f o r v i d e o s a t e l l i t e d a t aJ.C h i n e s
5、e S p a c e S c i e n c e a n d T e c h n o l o g y,2 0 2 4,4 4(1):1 4 4-1 5 3(i n C h i n e s e).A n e w m u l t i-t a r g e t t r a c k i n g m e t h o d f o r v i d e o s a t e l l i t e d a t aC H E N H a i t a o1,2,MA J u n1,L I F e n g2,*,L U M i n g3,L U X i a o t i a n2,Z H A N G N a n21.C o
6、 l l e g e o f S o f t w a r e,H e n a n U n i v e r s i t y,K a i f e n g 4 7 5 1 0 0,C h i n a2.Q i a n X u e s e n S p a c e T e c h n o l o g y L a b o r a t o r y,C h i n a A c a d e m y o f S p a c e T e c h n o l o g y,B e i j i n g 1 0 0 0 9 4,C h i n a3.A d v a n c e d I n t e l l i g e n t
7、 A l g o r i t h m C e n t e r,C h i n a A c a d e m y o f A e r o s p a c e S c i e n c e a n d T e c h n o l o g y I n n o v a t i o n,B e i j i n g 1 0 0 1 6 3,C h i n aA b s t r a c t:W i t h t h e w i d e s p r e a d u s e o f a r e a a r r a y d e t e c t o r s,m u l t i-t a r g e t t r a c k
8、i n g f o r v i d e o s a t e l l i t e s h a s b e c o m e o f g r e a t s i g n i f i c a n c e.H o w e v e r,f o r m u l t i-t a r g e t t r a c k i n g m e t h o d s b a s e d o n g r a p h s t r u c t u r e,i n t h e c o n s t r u c t i o n o f g r a p h s,m o s t o f t h e m e x t r a c t c l
9、u e s f r o m a d j a c e n t f r a m e s,i g n o r i n g t h e p r e v i o u s f r a m e c l u e s.I n r e s p o n s e t o t h e a b o v e p r o b l e m s,a n e n d-t o-e n d g r a p h n e t w o r k f r a m e w o r k w a s p r o p o s e d t o c o n s t r u c t t h e n o d e s,e d g e s a n d g l o
10、b a l v a r i a b l e s o f t h e g r a p h,u s i n g v a r i o u s c l u e s s u c h a s m o t i o n f e a t u r e s,a p p e a r a n c e f e a t u r e s,a n d t o p o l o g y i n f o r m a t i o n e x t r a c t e d f r o m m u l t i p l e f r a m e s.A k e y p r i n c i p l e t o r e a l i z e t h
11、i s u n i f i e d f r a m e w o r k i s t o d e s i g n c o m p a t i b l e f e a t u r e r e p r e s e n t a t i o n s a n d g r a p h n e t w o r k u p d a t e m e c h a n i s m s f o r d i f f e r e n t c l u e s a n d d i f f e r e n t s o u r c e s(t r a j e c t o r i e s a n d d e t e c t i o
12、n t a r g e t s).T h e f r a m e w o r k o p e r a t e d i n a f e e d-f o r w a r d f a s h i o n a n d t r a i n e d o n l i n e.B e i n g e v a l u a t e d o n t h e p u b l i c d a t a s e t s V I S O,MO T 1 6,MO T 1 7 b e n c h m a r k s,t h e m u l t i-t a r g e t t r a c k i n g a c c u r a c
13、 y o f 9 9.8%,4 8.8%a n d 5 1.8%w a s a c h i e v e d r e s p e c t i v e l y,w h i c h w a s b e t t e r t h a n o t h e r r e l a t e d m u l t i-t a r g e t t r a c k i n g a l g o r i t h m s.A n d t h e a b l a t i o n e x p e r i m e n t s w e r e u s e d t o v e r i f y t h e i m p r o v e m
14、e n t t h a t e a c h c l u e t r a c k s m u l t i p l e t a r g e t s.T h e e f f e c t i v e n e s s o f p e r f o r m a n c e i m p r o v e m e n t w i l l h a v e a w i d e 陈海涛,等:面向视频卫星的多目标跟踪技术1 4 5 r a n g e o f a p p l i c a t i o n s c e n a r i o s i n m a n y f i e l d s s u c h a s s m a
15、r t t r a n s p o r t a t i o n,s m a r t c i t i e s,a n d m i l i t a r y w a r f a r e i n t h e f u t u r e.K e y w o r d s:m u l t i-t a r g e t t r a c k i n g;v i d e o s a t e l l i t e;g r a p h s t r u c t u r e;s p a t i o t e m p o r a l i n f o r m a t i o n;m o t i o n f e a t u r e;a
16、p p e a r a n c e f e a t u r e0 引言视频卫星是近年来兴起的一种新型对地观测卫星。与传统的成像卫星相比,它可以对特定的地面区域进行凝视观测,通过视频的形式记录地表的实时动态信息。其连续的时间序列帧提供了丰富的上下文信息,为运动目标的检测与跟踪提供了重要支撑。这使得视频卫星近年来在城市规模的交通管理1、海洋监测2和智能城市3等领域得到了广泛的应用。在视频卫星条件下,地面车辆目标尺寸较小,形状、纹理特征不明显,背景和目标之间的对比度低,容易被相对较高的树冠、高楼、高架桥等遮蔽,造成视频遮蔽区域内目标丢失,从而引发跟踪错误。另外,多个目标间的相似度高、相互干扰、可分辨
17、性差,也会导致运动目标的跟踪难题。针对上述挑战,稳定地跟踪目标是视频卫星多目标跟踪的重要研究内容。多目标跟踪在视频卫星方面,近年来提出了许多优秀的跟踪算法,这些算法根据检测方式的不同,可以分为基于检测跟踪(d e t e c t i o n-b a s e d t r a c k i n g,D B T)、联 合 检 测 跟 踪(d e t e c t i o n-f r e e t r a c k i n g,D F T)两大类。D B T类算法包含检测器和跟踪器,即基于目标检测结果进行数据关联实现多目标跟踪的模式。首先使用检测器匿名定位目标,然后跟踪器通过数据关联解决目标身份识别问题。这样
18、一个解耦的管道降低了总体复 杂 性,并 将 多 目 标 跟 踪(m u l t i o b j e c t s t r a c k i n g,MOT)的主要注意力转移到一个更统一的问题:轨迹关联。W a n g和 C h a r i等提出了用图网络模型进行轨迹关联4-5,但是图网络模型是静态图,通过将轨迹和检测目标视为节点,将轨迹和检测目标之间的关联视为边来构造图,当节点或边包含的信息过期时,这些静态图模型将失 败。K i m等 利 用 长 短 期 记 忆 网 络(l o n g s h o t m e m o r y n e t w o r k,L S TM)在多假设跟踪框架中对跟踪轨迹进
19、行特征提取6,L S TM对时间进行建模的能力使其成为MOT问题的一个合理选择。然而,该方法不考虑所有轨迹和所有检测目标之间的全局关系。L i 等在图网络模型中引入全局关系7,但是在图的构建中,特征信息仅从相邻两帧中提取,没有利用过去帧中的信息。F e n g等人同时将提取到的长期线索与短期线索融合在一个网络结构中,利用两者的优点以应对MOT场景中的复杂情况8,但是其分别设立单目标跟踪与身份重识别两个网络来承载短期线索与长期线索,降低了匹配效率。B e w l e y等人提出通过卡尔曼滤波,以跟踪框与检测框之间的交并比作为代价矩阵输入匈牙利算法进行目标身份(i d e n t i t y,I
20、D)关联9,该算法简单,运行速度快,但是目标I D的关联不稳定,目标身份切换(I D s w i t c h,I D S)明显。W o j k e在B e w l e y算法的基础上,增加了目标的深度外观特征作为关联代价,初步实现了算法在准确度、速度、I D S的平衡1 0。D F T类算法融合检测器和跟踪器进行联合学习,一个深度网络框架实现检测的同时完成目标跟踪,这也使得该类算法对检测模块更为依赖。W a n g等提出了一个实现检测与嵌入外观特征的联合学习网络,可以实时运行,并且在准确度上与D B T模式相当,但是锚框的存在导致检测与嵌入外观特征存在不对齐的现象1 1。C h u等结合单目标
21、跟踪与数据关联的互补性,构建端对端的视觉多目标跟踪方法,在目标数目较少时可实现较高的跟踪准确度和速度,具备较高的抗遮挡性能1 2。但是处理目标在视野中快速出入及目标数量较多时算法表现不佳。W a n g等人将图结构引入到联合检测跟踪方法中,通过图神经网络(GNN)建模对象关系,以改进检测和数据关联1 3。本文采用了检测跟踪策略,并根据各个方法的优势,分别利用运动特征和外观特征作为输入,融合多种线索,提出了一种基于图结构的时1 4 6 中国空间科学技术F e b.2 5 2 0 2 4 V o l.4 4 N o.1空关联网络。首先利用长短期记忆网络从多帧中提取轨迹信息构建节点、边等特征,其次,
22、随着每帧信息的输入,对图结构的节点和边重新赋值计算。此外,在节点、边特征的基础上增加了全局特征,全局特征通过节点间的融合、边间的融合来捕获所有节点和边之间的全局关系。为了实现在线跟踪能力,跟踪器执行逐帧数据关联,这些关联可以用图形表示为二部图匹配问题。在此基础上建立的匹配问题通过生成成对的相似性来解决,然后求解得到的优化问题来生成关联输出。本文主要创新点如下:1)提出了一种新的基于图结构时空关联网络,利用L S TM方法使图的构建从空间域扩展到时空域,同时在图中增加全局特征,该方法采用在线学习的方式;2)该图网络节点、边和全局变量随着时间可以不断地更新迭代。1 研究方法及原理1.1 整体网络结
23、构多目标跟踪的目的是预测多个目标随时间变化的轨迹,运动特征轨迹由1到t-1帧的所有边界框构成。轨迹集表示为O=Tt-1i ni=1,其中n表示对象总个数。第i个对象的轨迹可以表示为Tt-1i=b1i,b2i,b3i,bt-1i ,轨迹中每个目标 在t-1帧 的 运 动 特 征 表 示 为bt-1i=xt-1i,yt-1i,wt-1i,ht-1i 。xt-1i和yt-1i表示目标在t-1帧的中心位置。wt-1i和ht-1i分别表示目标对象i的宽度和高度。第t帧中新的检测目标表示为D=btj mj=1,其中m表示检测目标个数,每对Tt-1i,btj 分配了相似性分数Sti j,n和m均为二部图的关
24、联基数。首先给定一个包含检测到边界框的新帧t作为输入,跟踪器进行特征提取,图时空关联网络计算已检出的轨迹和新检测到的目标之间的相似性分数Sti j,从而生成一个二部图。然后采用匈牙利算法1 4来获得最优分配。在逐帧进行分配时,将生成轨迹信息,整体流程图如图1所示。主要有3个步骤:特征提取、图时空关联网络、数据关联。1)特征提取。从t帧中的检测目标提取外观特征或运动特征。具体来说,外观特征是利用卷积神经网络(C NN)从检测框中提取。运动特征是一个4维向量,包括中心位置的2 D坐标、物体的宽度和高度。2)图时空关联网络。时空关联网络根据提取到的外观和运动特征,利用L S TM生成轨迹信息,然后根
25、据轨迹信息、检测目标信息、轨迹和检测目标之间的余弦相似度、目标框间的交并比(i n t e r s e c t i o n o v e r u n i o n,I OU)、全局特征等线索推断每个轨迹和每个检测目标之间的相似性。3)数据关联。此过程的输入是轨迹和检测目标之间的相似性分数,然后利用匈牙利算法寻找最佳分配,输出轨迹和检测目标之间的最终关联。图1 图时空关联网络目标跟踪方法整体流程F i g.1 O v e r a l l f l o w c h a r t o f t a r g e t t r a c k i n g m e t h o d i n g r a p h s p a
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 面向 视频 卫星 多目标 跟踪 技术
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。