基于改进FairMOT的铁路周界入侵检测方法.pdf
《基于改进FairMOT的铁路周界入侵检测方法.pdf》由会员分享,可在线阅读,更多相关《基于改进FairMOT的铁路周界入侵检测方法.pdf(11页珍藏版)》请在咨信网上搜索。
1、Vol.44 No.5September,2023中国铁道科学CHINA RAILWAY SCIENCE第 44 卷,第5期2 0 2 3 年 9 月基于改进FairMOT的铁路周界入侵检测方法胡昊1,2,史天运3,杨文1(1.中国铁道科学研究院集团有限公司 电子计算技术研究所,北京 100081;2.中国铁道科学研究院 研究生部,北京 100081;3.中国铁道科学研究院集团有限公司,北京 100081)摘要:针对铁路综合监控视频中不同远近行人成像面积差异较大、自然环境变化产生干扰等因素造成的检测难题,提出一种改进FairMOT框架的周界入侵检测方法。首先,针对监控视频中不同远近的行人,通过
2、在FairMOT框架中引入感受野模块,丰富不同成像大小行人检测所需的感受野,以更好地提取不同尺度特征信息;其次,针对夜晚时段方法检测性能较低的问题,在编码解码网络后融合空间注意力模块,强化夜间前景行人关键特征,同时优化目标跟踪和判断流程,实现稳定检测;然后,针对缺乏大量学习样本的问题,使用行人检测跟踪数据集与铁路真实数据集混合增强训练,提高方法在全天候检测中的泛化性和鲁棒性;最后,在MOT17数据集和铁路真实数据集上,对改进FairMOT检测方法与CenterTrack,Bytetrack等方法进行对比试验。结果表明:提出的改进FairMOT检测方法在白天和夜晚对不同大小目标检测中,均取得了最
3、高的准确率和召回率调和均值,检测性能最好;方法检测速率为25.2 帧s-1,能够满足实时检测要求。改进的FairMOT检测方法可以更有效地应用于实际铁路周界入侵检测场景。关键词:铁路运输;周界入侵检测;感受野模块;空间注意力中图分类号:U298 文献标识码:A doi:10.3969/j.issn.1001-4632.2023.05.22截至 2022 年底,我国铁路运营总里程突破15.5万km,其中高铁运营里程突破4.2万km。随着我国高铁运行速度不断提高以及路网规模不断扩大,高铁运行安全问题越发重要。铁路沿线环境复杂,行人非法入侵铁路周界的现象频频发生,这严重影响铁路行车安全,极易造成人民
4、生命和财产重大损失。同时,周界入侵事件具有随机性、突发性、环境复杂性等特征,入侵检测难度大。通常检测手段有:振动光纤、电子围栏、光波对射、智能视频、雷达等1。智能视频凭借其成本低、应用灵活、安装方便、智能化等特点,是当前周界入侵的主要检测手段,即通过铁路沿线的综合视频监控系统实时监测画面,进行智能分析检测周界入侵行为。研究并利用计算机视觉智能分析方法对周界入侵事件进行鲁棒性检测具有重要意义。目前国内外学者针对周界入侵检测进行了许多探索,取得了一定成果。牛宏侠等2提出基于小波变换的改进高斯混合背景模型及以反向传播神经网络修正交互式多模型的跟踪方法,实现了实时轨道目标跟踪预测。郭保青等3提出了基于
5、一维灰度投影特征匹配的图像抖动检测及运动补偿方法,比传统背景差分方法具有更好的稳定性,能有效检出铁路场景侵限目标。魏玮等4提出三帧差法结合动态自适应学习率的高斯混合方法,能够适应光照或背景突变的情况,具有更好的实时性及抗干扰能力。近年来深度学习在机器视觉上取得了显著效果,很多学者基于神经网络方法开展周界入侵检测研究。张永良等5提出改进卷积神经网络的行人文章编号:1001-4632(2023)05-0222-11引用格式:胡昊,史天运,杨文.基于改进FairMOT的铁路周界入侵检测方法 J.中国铁道科学,2023,44(5):222-232.Citation:HU Hao,SHI Tianyun
6、,YANG Wen.Railway Perimeter Intrusion Detection Method Based on Improved FairMOT J.China Railway Science,2023,44(5):222-232.收稿日期:2022-04-21;修订日期:2023-07-06基金项目:中国国家铁路集团有限公司系统性重大项目(P2021T001)第一作者:胡 昊(1991),男,河南信阳人,博士研究生。E-mail:通讯作者:史天运(1967),男,山西平陆人,研究员,博士研究生导师,博士。E-mail:第 5 期基于改进FairMOT的铁路周界入侵检测方法检测
7、方法,该方法在深层特征的基础上融入浅层特征,利用多层特征缓解深层特征在小目标识别方面的局限性。徐岩等6提出基于改进Faster R-CNN网络的铁路侵限检测方法,对侵限的人、车及部分动物检测效果较好。王瑞等7提出一种改进的Cascade Mask RCNN 方法,增强对小目标的检测能力,有效提升了检测率。针对帧差法、YoloV5及Cascade RCNN等多种典型周界入侵方法进行测试分析,基于帧差法的周界入侵检测方法容易在风吹草动、行进列车等条件下出现误报,性能较不稳定。同时对于静止不动的目标,较难检测出,此类方法在实际应用时效果较差。目前基于深度学习的YoloV5和Cascade RCNN等
8、检测方法,对于小目标与夜间目标的检测性能相对较差而且存在误检或漏检。高速铁路运行区间的地域环境差异极大、气象气候条件多变、周边环境复杂,这对周界入侵检测方法的鲁棒性要求较高,存在以下挑战:高速铁路周边监控摄像机拍摄范围较大,需要方法可以检测不同远近的行人入侵周界的行为,远距离行人的成像面积较小,识别较难;由于入侵行为具有随机性、突发性等特点,所以需要全天候检测,在夜晚等光照强度较低场景,目标与背景难以区分,对方法识别能力要求较高;铁路周界入侵事件相对来说较少,入侵识别缺乏大量的学习样本,而目前常见的行人检测方法仅基于数据驱动。本文提出了一种适用于铁路沿线周界入侵行为检测方法,基于FairMOT
9、8,进行针对性改进,融入了感受野(Receptive Field Block,RFB)9 与空间注意力模块10,并优化目标跟踪与判断逻辑,在行人检测跟踪数据集与铁路真实数据混合增强训练,提高方法在不同环境条件下检测的泛化性和鲁棒性。1 基于改进FairMOT的周界入侵检测1.1网络结构以FairMOT作为基准网络框架,基准框架由编码-解码网络、检测分支及行人再识别分支等部分组成,结构示意图如图1所示。编码-解码网络用于对输入图像进行编解码,得到用于检测和行人再识别的高质量特征图;检测分支用于回归行人的中心点热图、包围框尺寸以及中心点偏移量,以得到监控视频每帧中行人的包围框;行人再识别分支用于得
10、到检测分支中每个行人的特征编码,以此匹配连续帧中相同的行人。FairMOT的编码器为DLA3411,其树形结构使得网络在前向过程中不断融合浅层的特征图,实现了低级特征和高级特征之间跳级链接,从而使得特征图中包含丰富的小目标特征信息。解码器在解码过程中不断融合编码器中的特征,使得特征图中浅层信息较为丰富。编码-解码网络的结构使得特征图中小目标的特征较为丰富,从而可以较好地检测出铁路场景数据中较远处的行人,为检测分支和再识别分支提供高质量的特征图。FairMOT中检测分支为无锚的检测器,以行人中心点以及中心点到行人包围框的偏移量表征行人包围框,检测分支结构示意图如图2所示。检测分支中包含3个并行的
11、分支,每个分支包含1个通道数为 256 的(33)像素卷积以及 1 个(11)像素卷积,每个检测分支负责回归的目标作为输入。热图负责回归行人中心点的位置;包围框尺寸用于回归中心点到目标包围框的尺寸;中心点偏移量用于将中心点更精确地映射回原图像。行人再识别分支用于提取检测分支中每个行人的外观特征,以进行后续的外观匹配,其结构示意图如图3所示。外观匹配可以在铁路真实环境较为复杂的情况下,通过提取行人的深度外观特征进行更准确的数据关联。行人再识别分支包含1个输出通道为128的卷积,将检测分支得到的每个中心点映射到再识别特征图中,得到每个行人外观特征。图2检测分支结构示意图图1网络结构示意图223第
12、44 卷 中国铁道科学再识别分支可以理解为将数据集中的所有行人进行分类,从而得到每个行人独有的特征。铁路周界入侵检测具有独特的应用场景,铁路真实周界入侵数据也存在行人成像大小差异大、夜间场景光线较暗等特点。在使用FairMOT进行周界入侵检测时,根据任务数据本身的特点添加感受野模块与空间注意力机制,同时还设计了后处理检测流程,使得方法可以得到更好地应用。改进的FairMOT结构中,网络输入为铁路监控视频中每1帧的RGB 3通道图像,编码-解码网络中。相比于原始结构,改进的FairMOT在解码器特征融合之后添加RFB模块,RFB模块通过添加空洞卷积丰富网络感受野,从而满足不同成像大小行人目标所需
13、要的不同感受野,以此来提高铁路真实数据中对不同成像大小行人的检出率。编码-解码网络结构与分支之间添加了空间注意力模块,用于将解码器输入的特征进一步加权微调,使得网络更加关注于前景行人,从而提高夜间行人与背景差异较小时的检测性能。1.2基于RFB模块的感受野增强铁路综合监控视频的监控区域一般为长带状,不同远近行人的成像大小分布差异较大,其中最小的行人约为(1015)像素的成像面积,最大的行人约为(50100)像素的成像面积。周界入侵检测方法如何对不同远近的行人都具备较好的检测性能是一个关键问题。不同远近的行人所需要的感受野是不同的。原始网络的解码部分在特征融合后使用形变卷积,但形变卷积更多地可以
14、适应形状差异较大的目标,然而行人的形状是固定的,周界入侵检测中,更需要网络有丰富的感受野。我们在网络解码部分添加RFB模块来丰富网络感受野。RFB模块是一个类似Inception12的多分支卷积模块,不同分支对应的感受野不同,其结构示意图如图4所示。不同卷积和输出的特征在通道维度进行级联,再经过(11)像素卷积整合特征并调整通道数,从而得到丰富的特征信息。空洞卷积可以在不增加网络参数量的同时丰富网络感受野,其中小卷积核的感受野较小,可以满足小目标的感受野需求,使得网络更好地检测小目标。大卷积核的感受野较大,可以满足大目标的感受野需求,使得网络更好地检测大目标,因此网络在学习过程中可以同时学习到
15、大小目标的特征,解码器输出的特征中大小目标的特征信息都较为丰富,检测分支就可以回归出不同尺度目标的中心点,从而提高网络对于不同尺度目标的检出率。1.3基于空间注意力的前景特征增强周界入侵检测方法需要全天候运行,夜晚的监控视频能见度较低,行人与背景差异较小,检测难度较大,周界入侵检测方法也应关注于如何提高夜间目标的检出率。在编码解码器后加入空间注意力模块,以此来微调用于检测和再识别的特征,使得网络在学习时更加关注前景行人的特征图。空间注意力模块的结构示意图如图5所示。对于输入的特征图首先经过最大池化层和平均池化层,得到2层空间维度与输入特征图相同但通道维度变为1的特征图。将上述2层特征图在通道维
16、度级联并输入其输出通道为1的卷积,再经过sigmoid层得到空间维度与输入特征图相同、通道维度为1的空间注意力。空间注意力中每个点代表对应的权重,将空间注意力与输入特征图相乘得到微调后的特征图。空间注意力使得网络在学习的过程中可以更突出前景行人部分的权重,相当于对原始特征图进行了加权,从而使得网络在学习过程中自主地学习到更关注于前景行人的特征。1.4目标跟踪方法由于高速铁路真实环境较为复杂,因此使用2图3再识别分支结构示意图图4RFB模块结构示意图图5空间注意力模块结构示意图224第 5 期基于改进FairMOT的铁路周界入侵检测方法次匹配进行连续帧中行人的关联。外观匹配通过行人深度特征的相似
17、性进行匹配,IoU匹配通过连续帧内行人间的交并比进行匹配。这些匹配方式同时考虑了外观和距离因素,从而更好地适用于铁路周界入侵数据。目标跟踪流程如图6所示。采用卡尔曼滤波根据行人在当前帧的位置预测行人在下1帧的预测位置,通过卡尔曼滤波可以引入行人的运动信息。卡尔曼滤波分为预测阶段和更新阶段,预测阶段负责对目标状态的均值和协方差进行预测,更新阶段负责通过观测值反馈调节预测阶段的估计值。FairMOT的跟踪流程选取的状态变量为x=u,v,r,h,u,v,r,h,(u,v)为行人的中心点坐标,r,h分别为包围框的长和高,后4个分量为前4个分量的速度分量。在网络得到目标在下1帧的真实位置后,采用匈牙利方
18、法进行2次匹配。首选使用再识别分支得到的特征进行外观层面的匹配,然后使用目标之间的IOU值进行距离层面的匹配。匹配过程使用余弦相似性,余弦相似性的表达式为Ssimilarity=ABAB(1)式中:A,B为2个向量。通过 2次匹配将连续帧中的同 1个行人关联,从而完成了跟踪流程。1.5周界入侵判断逻辑以往的一些周界入侵检测方法往往依赖于单帧的检测结果。理想情况下如果检测结果较为准确,只要某 1 帧有行人出现在周界内,就可以进行报警。但是铁路真实环境较为复杂,检测方法难免会存在漏报或误报。漏报或误报对铁路安全运营均有较大影响。监控视频具有时序的连续性,所以使用跟踪的方法进行周界入侵检测,也是为了
19、充分利用视频的连续性。跟踪方法可以得到同一行人在连续帧的位置。周界入侵判断逻辑如图7所示。图中:T为某 1个行人存在的时长;X为其中心点位移;IID为行人编号;CCount为视频帧数;d为连续帧间位移像素值。周界入侵判断逻辑为:检测方法检测到同1个行人在连续帧的位置后,判断其是否在周界内存在时长超过10帧,并且10帧内的位移超过10个像素点,若2个条件同时满足,则认为该行人在入侵周界,并进行报警。如果某1个行人在15帧内不满足以上2个条件,则将该行人之前缓存的信息删除。通过这样的判断条件,可以过滤掉某1帧的误检以及连续帧中固定不变的误检,从而提高了方法的稳定性。2 网络训练2.1参数设置试验在
20、RTX 2080ti GPU上完成,深度学习框架选用Pytorch。特征提取网络为DLA34,解码层使用感受野模块,解码层之后使用空间注意力模块。网络在2张GPU中训练完成。训练数据使用周界真实数据集与行人检测跟踪数据集,批量大小设图6目标跟踪流程图7报警判断流程225第 44 卷 中国铁道科学置为12,训练轮次为30次。初始学习率为0.000 1,在第21次训练中衰减为0.000 01。使用Adam优化器进行优化。2.2损失函数训练损失由热图损失、包围框损失以及再识别损失3部分组成,其计算式为Lall=Lheat+Lbox+Lidentity(2)式中:Lall为总体损失;Lheat为热图损
21、失;Lbox为包围框损失;Lidentity为再识别损失。热图损失采用了Focal loss13方式进行计算,用于训练中心点热图。Lheat=-1Nxy(1-Mxy)lg Mxy Mxy=1(1-Mxy)Mxylog(1-Mxy)其他(3)式中:x,y为像素点坐标;Mxy为热图的真实值;Mxy为热图的预测值;N为目标总数;,为Focal loss的预定参数,可以平衡回归热图时正负样本不均衡的问题。包围框损失为平均绝对误差损失,用于回归包围框的中心偏移量和尺寸。将第i个包围框的2个坐标点定义为(xi 1,yi 1)和(xi 2,yi 2),第 i 个包围框的尺寸的真实值为si=(xi 2-xi
22、1,yi 2-yi 1),则包围框损失为Lbox=i=1Noi-oi1+ssi-si1(4)其中,oi=()cix4,ciy4-()cix4,ciy4式中:si为第i个包围框尺寸的预测值;(cix,ciy)为目标框中心点坐标;oi为中心点偏移量的真实值;oi为预测值;s为权重参数;为下取整。再识别损失为交叉熵损失,用于训练再识别嵌入,其计算式为Lidentity=-i=1Nk=1KLi(k)lgp(k)(5)式中:Li(k)为第i个目标所属类别的真实值;p(k)为类别分布向量;k为再识别目标数量。2.3训练数据铁路周界真实数据集由 9 253 张白天图像和8 162张黑夜图像组成,共包含17
23、415张真实数据。除此之外在数据集中补充CityPersons14,CUHK-SYSU 15,ETHZ 16,MOT17和MOT16 17 组成的混合行人检测跟踪数据集以及 CrowdHuman 数据集18。通过丰富训练数据集中行人的分布以增加检测方法的鲁棒性。补充数据的示意图如图8所示。(a)室内行人(b)傍晚街道行人(c)夜晚街道行人(d)白天街道行人(e)阴天街道行人226第 5 期基于改进FairMOT的铁路周界入侵检测方法铁路周界真实数据虽然符合实际应用场景,但其存在行人分布较为单一的特点,为了更好地检测出行人,需要在训练数据中丰富行人的数据分布,从而提升方法的鲁棒性。3 结果分析3
24、.1评价标准(1)MMOTA:多目标跟踪的准确度,体现在确定目标的个数,以及有关目标的相关属性方面的准确度,用于统计在跟踪中的误差积累情况。ml为漏检数,即在第l帧中该目标没有假设位置与其匹配。fl为误判数,即在第l帧中给出的假设位置没有跟踪目标与其匹配。el为误配数,即在第l帧中跟踪目标发生ID切换的次数。MMOTA计算式为MMOTA=1-l=0Nml+fl+ell=0Ngl(6)(2)F1分数:报警层面的 F1分数是报警精确率与报警召回率的调和平均,其中TP和TN为真阳性和真阴性,FP和FN为假阳性与假阴性。F1分数计算式为F1=2PRP+R(7)其中,P=TPTP+FPR=TPTP+FN
25、(3)IIDF1:引入 ID 的 F1分数,计算式与上述F1分数相同。(4)FFPS:指在进行周界入侵检测时,检测方法每秒推理的图像帧数。3.2试验分析3.2.1在MOT17数据集上验证为了验证补充训练数据集对于检测方法性能的影响,基于MOT7数据集进行了3组试验,分别为只使用MOT17的训练集训练,使用MOT17的训练集与混合行人检测跟踪数据集混合训练,以及使用MOT17的训练集、混合行人检测跟踪数据集和CrowdHuman数据集混合训练。在MOT17数据集进行基准测试,结果见表1。由表1可知:在MOT17训练集的基础上,随着混合行人检测跟踪数据集与 CrowdHuman 数据集逐步混合加入
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 FairMOT 铁路 周界 入侵 检测 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。