基于融合残差网络的人体异常行为识别方法.pdf
《基于融合残差网络的人体异常行为识别方法.pdf》由会员分享,可在线阅读,更多相关《基于融合残差网络的人体异常行为识别方法.pdf(6页珍藏版)》请在咨信网上搜索。
1、2023年10月西安交通工程学院学术研究Oct.2023第 8 卷第 3 期Academic Research of Xian Traffic Engineering InstituteVol.8No.3基基于于融融合合残残差差网网络络的的人人体体异异常常行行为为识识别别方方作者简介:作者简介:周璇(1997-),女,讲师,硕士,深度学习与图像处理。基金项目:基金项目:陕西省教育厅科学研究计划项目资助(项目编号:23JK0529)。法法周璇(西安交通工程学院 陕西西安 710300)摘摘要要:在视频监控系统中实时检测并识别异常行为的能力是智能监控系统的关键问题。本文提出了一种基于融合残差网络的
2、网络框架,实现从视频中检测并识别人体异常行为。该残差网络框架主要包括人体检测模块和行为识别模块。基于前者本文提出检测残差网络(d-Res)采用多尺度目标检测策略来保证人体的检测速度以及检测效果;后者用于提取异常行为空间特征,使用基于迁移学习的识别残差网络(r-Res)提取图像的深层次特征,从而高效地对异常行为进行分类。最后,在 UTI数据集上进行了实验,对本文所提算法的性能进行了评估。实验结果表明,所提出的方法在检测识别现实场景中的异常行为方面取得了令人满意的效果。关关键键词词:异常行为;融合残差网络;检测残差网络;迁移学习;识别残差网络中中图图分分类类号号:TP391 文文献献标标识识码码:
3、AHuman Abnormal Behavior Recognition Method Based on FusionResidual NetworkZHOU Xuan(Xian Traffic Engineering Institute,Xian Shaanxi 710300,China)Abstract:The ability to detect and identify abnormal behavior of video surveillance systems in real-time is the key problem forintelligent surveillance sy
4、stems.This paper proposes a network framework based on fusion residual networks to detect and identifyabnormal human behavior from video.The residual network framework mainly includes a human detection module and a behaviorrecognition module.Based on the former,this paper proposes that the detection
5、 residual network(d-Res)adopts a multi-scale objectdetection strategy to ensure the speed and effect of human detection.The latter is used to extract the spatial features of the abnormalbehavior and uses the recognition residual network(r-Res)based on transfer learning to extract the deep features o
6、f the image so thateffectively classifies the abnormal behavior.Finally,experiments are performed on the UTI data set to evaluate the performance ofthe proposed algorithm.The experimental results show that the proposed method achieves satisfactory results in detecting andrecognizing abnormal behavio
7、rs in real-world scenarios.Keywords:abnormal behavior;fusion residual network;detecting residual network;transfer learning;recognize residual networks引引言言近年来,智能视频监控系统1广受政府和公众的欢迎,从政府打击犯罪到家庭的日常安全都有所应用。异常行为与人身财产安全息息相关,通过人力分析海量视频信息是非常昂贵且低效的,因此有必要自动地检测和识别可疑的异常行为。由于人类行为的歧义性,准确地识别异常行为成为现今的攻克难点2。于是本文介绍了一种人与
8、人之间密切互动时可能发生的异常行为检测技术。实时检测异常行为是非常重要的,一旦检测到异常就可以采取适当的措施以避免或减少负面结果产生。因此,许多研究工作都是为了取代手动检测异常情况而创建一个自动视频监控系统,其核心技术,即准确地实时检测并识别异常行为确实极具挑战性3。为了实现自动检测异常行为4技术,则必须捕获人体的一些外观和动态,以便检测场景中存在的任何异常行为并确定其空间位置。目前,异常行为检测方法有很多种,如 SSD5,Fast R-CNN,FasterR-CNN6,YOLO 等网络结构。与检测方案(如 SSD,Fast/Faster R-CNN)提出的基于深度学习7模型的异常行为检测算法
9、相比,YOLO 网络的检测速度最快。由于本文中要实现在视频监控系统中实时检测异常行为,即对检测速度有一定的要求,因此本实验中采用 YOLO 来完成目标检测任务。异常行为的识别方法主要有双流网络8、深度卷积神经网络944基于融合残差网络的人体异常行为识别方法等。而在深度神经网络中经常会出现梯度消失的问题,研究者们一般都会使用数据初始化以及数据正则化来缓解该问题10。此外,随着网络层数的不断增加,产生了性能退化的弊端,而残差网络可以缓解此类问题,从而使网络的性能得到提高11。至此,本文提出了采用 r-Res 网络来识别异常行为,在深度网络中的识别准确率令人满意。采用本文的多级残差网络不仅能实时地对
10、人体进行检测,还能快速、准确地识别出异常行为,体现出其高效性和准确性。1 残差网络的优势在计算机视觉以及图像处理领域中,随着网络层数的增加,网络提取的特征会变得更加抽象,但这些抽象的信息计算机更容易理解。研究表明,网络的深度是取得理想结果的关键12。然而,随着网络层数的不断增加,在模型训练时会出现梯度消失等问题,从而使得网络无法收敛。用初始化和正则化方法处理数据可将收敛的网络的层数增加近十倍。虽然网络能够收敛,但其性能却逐渐退化,即增加网络深度会使得误差更大。误差随网络层数增加的变化趋势如图 1 所示。图图 1 误误差差随随网网络络层层数数增增加加的的变变化化通过在一个直链式网络上增加跳跃链接
11、层,从而让网络深度加深而不产生退化13。这反映了多层直链式神经网络无法逼近跳跃链接网络,由此引入残差网络来很好地解决这一问题。残差网络参考并学习每层的输入,从而形成残差函数。该函数很容易优化14,并且可以使得网络深度大大增加。2 人体检测模块YOLO v4 是 YOLO 系列算法的第四个版本,是由 Alexey Bochkovskiy 等人提出的,其在传统的YOLO 算法基础上,加入了很多实用技巧,较大程度地提升了检测精度并加快了检测速度。官方实验表明,在 Tesla V100 上,其对 MS COCO 数据库的检测精度达到了 43.5%,速度达到了每秒 65 帧。2.1 YOLO 检检测测算
12、算法法YOLO检测算法一直受到相关学者们的广泛关注,其版本经过了多次更新,不断汲取其他检测算法的优点并优化自身15。该算法的根本思想是:采用特征提取网络提取输入数据的特征,得到特定大小的特征图输出。将输入数据划分为 SS 个网格,如果图像中某一目标的中心落在其中一个网格中,那么就由此网格来预测该目标16。其中每个网格都负责预测 B 个边界框,并且每个边界框都包含自身的位置信息和置信度。此置信度主要代表了所预测的框中含有目标的可能性以及该框所预测的准确度两种信息。计算公式如下:truth=Pr()predconfidenceObjectIOU(1)若网格中包含某个目标则Pr()=1Object,
13、否则Pr()=0Object。truthpredIOU代表实际的边界框与预测的边界框的交并比17,用来测量预测框的准确度,当IOU=1 时,代表实际边界框与预测边界框重合。目标类别属性主要是对每个含有目标的网格预测 C 个概率,用Pr(|)Class Object表示18。无论边界框的数量如何,每个网格单元仅预测一组概率。在预测阶段,将目标所属类别的概率与边界框的置信度相乘得到预测边界框所属某一类别的置信分数,公式如下所示:truthtruth_Pr(|)Pr()Pr(|)Pr()iiprediipredClassscoreconfidenceClass ObjectObjectIOUClas
14、s ObjectClassIOU 将_iClassscore与规定的阈值相比较,如果大于本文所设置的阈值则保留相应的预测目标边界框,否则将舍弃其边框(在本实验中,由于只对人进行检测,并且人体姿态变化较大,因此设置的阈值定为 0.3)。然后,本文采用常用的非极大值抑制法排除了剩余的预测边框。最后,网络输出最终的目标预测位置以及所属种类。2.2 YOLO v4 的的整整体体网网络络框框(2)架架YOLO v4 算法19是一个高效的目标检测网络,其整体架构如图 2 所示。YOLO v4 包含输入端、Backbone、Neck 和输出端四个部分,由 CBM、CBL、Res_unit、CSPX、SPP
15、五种基本单元所组成。此算法在 YOLO v3 的基础上优化了神经网络的结构,45基于融合残差网络的人体异常行为识别方法图图 2 YOLO v4 的的网网络络结结构构图图其加入了跨小批量标准化、加权残差连接、自对抗训练、跨阶段部分连接等模块,还采用了 Mish 激活函数、Mosaic 数据增强、CIoU_loss 等操作,达到了目前较好的实验结果。2.3 YOLO v4 人人体体检检测测算算法法设设计计YOLO v4 在传统 YOLO 系列算法基础上,运用了很多用于提升检测效率的技巧。YOLO v4 在YOLO v3 算法的基础上对输入端、BackBone、Neck和输出端均做了创新,使得其对不
16、同大小人体的检测效果更好。所以本文采用 YOLO v4 作为异常行为识别任务中的人体检测算法,其检测流程如图 3所示。图图 3 YOLO v4 人人体体检检测测流流程程图图3 行为识别模块3.1 残残差差网网络络的的整整体体框框架架采用本文所提出的检测方法从连续视频剪辑中检测并框出每一帧的目标对象。本研究的目的是构建一个系统以识别上一步框出来的人体行为目标。通过连接以下两个深度学习模型提出了统一的框架:用于人体检测的 d-Res 架构和用于行为识别的 r-Res 网络架构。其整体网络的框架图如图 4 所示。图图 4 连连接接 d-Res 模模块块和和 r-Res 模模块块的的深深度度残残差差框
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 融合 网络 人体 异常 行为 识别 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。