一种多网融合的分阶段考生行为识别检测算法.pdf
《一种多网融合的分阶段考生行为识别检测算法.pdf》由会员分享,可在线阅读,更多相关《一种多网融合的分阶段考生行为识别检测算法.pdf(10页珍藏版)》请在咨信网上搜索。
1、引用格式:王林,田晨光一种多网融合的分阶段考生行为识别检测算法 J.微电子学与计算机,2023,40(9):45-54WANGL,TIAN C G.A phased behavior recognition and detection algorithm based on multi-network fusionJ.Microelectronics&Computer,2023,40(9):45-54.DOI:10.19304/J.ISSN1000-7180.2022.0691一种多网融合的分阶段考生行为识别检测算法王林,田晨光(西安理工大学 自动化与信息工程学院,陕西 西安 710048)摘要
2、:针对现有考场考生行为识别存在检测范围小、识别准确率不高的问题,提出了一种多网融合的考生行为识别检测算法.考生定位采用轻量化检测网络 Yolov4-Tiny 并对其进行改进.首先,在主干部分嵌入通道空间双注意力机制 CBAM,解决了考场中考生小目标和遮挡目标难以识别的问题.其次,在特征提取后引入 PPM 金字塔池化结构,能够提高网络获取全局信息的能力.然后,将改进后的网络融入 Alphapose 人体姿态估计模型提取出考生的骨骼关键点坐标信息.最后,通过时空图卷积神经网络 ST-GCN 进行行为分类.实验表明,通过迁移学习的方式在数据集NTU-RGB+D 得到预训练模型,最终在考生行为数据集上
3、对 4 类行为识别的平均准确率达到了 94.6%,能够有效的完成考场中考生的行为识别检测任务.关键词:目标检测;人体姿态估计;行为识别;时空图卷积;迁移学习中图分类号:TP391.4 文献标识码:A 文章编号:1000-7180(2023)09-0045-10A phased behavior recognition and detection algorithm based onmulti-network fusionWANG Lin,TIAN Chenguang(School of Automation and Information Engineering,Xian University
4、 of Technology,Xian 710048,China)Abstract:Aiming at the problems of small detection range and low recognition accuracy in the existing examineebehavior recognition in the examination room,a multi network fusion algorithm for examinee behavior recognition isproposed.The lightweight detection network
5、Yolov4 Tiny is selected and improved for candidate positioning.First,channelspace dual attention mechanism CBAM is embedded in the trunk,which solves the problem of difficult identification ofsmall targets and occluded targets in the examination room.Secondly,the introduction of PPM pyramid pool str
6、ucture afterfeature extraction can improve the networks ability to obtain global information.Then the improved network is integratedinto the Alphapose human posture estimation model to extract the coordinate information of the examinees skeleton keypoints,and finally the behavior classification is c
7、arried out through the space-time map convolution neural network ST-GCN.The experiment shows that the pre training model is obtained in the data set NTU-RGB+D by means of transferlearning,and the average accuracy rate of four types of behavior recognition on the examinees behavior data set finallyre
8、aches 94.6%,which can effectively complete the examinees behavior recognition and detection task in the examinationroom.Key words:Object detection;Human pose estimation;Behavior recognition;Spatiotemporal graph convolutional;The migration study 收稿日期:2022-11-02;修回日期:2023-01-09基金项目:陕西省科技计划重点项目(2017ZDC
9、XL-GY-05-03)40 卷 第 9 期微 电 子 学 与 计 算 机http:/Vol.40No.92023 年 9 月MICROELECTRONICS&COMPUTERSeptember 2023 1引言近年来,无论高考还是研究生考试,考生数量呈现急剧式增加,考试竞争压力越来越大,而考试的公平公正尤为重要.在各种考试环境中,考场上总会发生各种异常行为,而这些异常行为的出现就会打破考试的公平公正.目前大多数学校的考试都是通过人工监考的方式实现的,不仅要使用大量的监考人员,同时会出现监考不严谨的问题.在智能化技术不断发展的今天,校园也越来越智能化,面对高校考试监考技术的多样化,把计算机智能
10、监控技术应用于校园内,通过智能化的设备实现考场内考生行为的识别,这大大的提高了考试的质量以及在一定程度上能够提高考生的自觉性.目前,针对考场行为检测识别国内已经有学者研究,文献 1 对于考场行为检测引用了混合高斯模型和肤色分割检测的方法,通过混合高斯模型提取考生运动前景目标,结合肤色分割识别脸部手部区域判断考生异常行为.文献 2 是在文献 1 的基础上将肤色检测换成了发色检测,通过设定阈值判断考生异常行为,所提方法能检测考场中 90%以上的异常行为.文献 3 提出了基于目标检测和肤色检测相结合的行为检测模型,异常行为检测通过运动历史图像的运动连通域,能够很好的识别视频监控下考场异常行为.但是以
11、上文献算法对于考生轮廓细节难以捕捉,以及识别算法对于遮挡考生识别效果不佳.文献 4采用了深度学习的方法,将考试监控视频分割成单帧图像信息,然后用 SSD 算法代替 YOLO 算法进行目标分类,能够准确的检测出考生的各种行为.文献 5基于深度学习算法将 SSD 算法轻量化并结合 Yolov3目标检测网络进行考场行为识别工作.以上基于深度学习算法都是对 RGB 图片进行考生行为识别检测,图片数据标注比较困难以及不能够考虑都工作的时序性,在识别考生行为方面鲁棒性比较差.文献 6 通过头部运动分析来实现考场异常行为识别.采用 2D运动估计器以及 3D 头部姿态估计器通过设定阈值实现了考场异常行为检测.
12、文献 7 对在线考试作弊行为进行了检测,结合了头部姿态估计屏幕注视点以及嘴部状态能够有效的检测到考生的作弊行为.基于头部姿态检测模型容易受到视频角度的约束,对于真实考场环境识别检测效果并不理想.文献 8 采用了人体姿势估计模型 Openpose.通过摄像头计算臀部与头部的比例来检测学生是否回头作弊,但是该系统仅适用于每个摄像头观察的一名学生,不适合考场多名考生检测任务.文献 9 采用 Openpose 骨架模型提取学生的骨架,然后自制了一个 10 层的神经网络进行分类识别,能够有效的识别到课堂上学生的行为.文献 10 提出了一种基于 Openpose 的异常行为方法,利用 Openpose 人
13、体姿态模型提取出考生的骨架图,采用坐标阈值法以及卷积神经网络方法对比了试验结果,能够有效的对考场中考生的行为进行识别.文献 11 提出了一种基于骨骼关键点检测学生行为的方法,通过 Openpose 提取学生的骨架坐标,计算骨架关节点之间的角度和距离来识别学生课堂行为.文献 12 采用人体姿态估计模型通过在考试过程中不断验证学生的头部姿势和手部运动状况,来检测学生是否作弊.该系统检测作弊的准确率达到 92%97%.对于考场行为识别,考生在发生异常行为时通常是一段连续的动作,基于人体姿态估计算法模型识别考生作弊行为采用了阈值判断方法或者是基于骨骼图进行识别,并没有考虑时序上的动作信息,在识别考生行
14、为时鲁棒性并不理想.针对以上参考文献针对考场考生行为检测识别存在检测范围小、算法适应性不足的问题.本文提出了一种多网络相融合的考生行为识别算法.把改进的 Yolov4-Tiny 网络融入到 Alphapose 人体姿态估计模型中,利用 Alphapose 提取出考生骨架关键点坐标信息,最后将骨架关键点坐标构建骨架时空图送入到时空图卷积网络 ST-GCN 中进行行为识别分类.最终通过迁移学习得到的模型在自定义的考生行为数据集上进行实验训练验证,能够有效的识别到考场中考生的异常行为.2算法原理本文主要分为三个部分.第一步为了降低目标检测算法的结构复杂度,首先采用了改进的 yolov4-tiny 检
15、测算法对考场中的考生进行准确的定位,生成考生的人体候选框;第二部将提取到的考生候选框送入 Alphapose 人体姿态识别模型中提取出考生的关节点坐标位置信息;最后将提取到的坐标向量送入时空图卷积网络中进行行为分类识别.整体算法流程图如图 1 所示.2.1改进 Yolov4-Tiny 人体检测网络Yolov4-Tiny 网 络 是 一 种 轻 量 化 模 型,是 在Yolov413网络的基础上对模型的参数进行了压缩,从而使得网络模型检测的速度有很大的提升.本文首先是对考场内的考生进行目标检测,考场内的摄像头46微电子学与计算机2023 年一般是放在固定的位置,能够捕获到所有的考生.但是考生距离
16、摄像头的远近不同,就会出现后排考生目标小并且可能会出现遮挡问题.所以本文应对考场环境特点以及面临的问题对 Yolov4-Tiny 网络进行的改进,能够有效的解决以上问题,改进的整体网络结构如图 2 所示.2.1.1引入 CBAM 注意力机制Yolov4-Tiny 的主干特征提取,没有对提取的特征进行仔细的筛选,对于小目标以及部分遮挡目标信息会产生部分的忽略.在 Yolov4-Tiny 的主干部分引入注意力机制模块,能够对感兴趣区域的特征数据进行权重加权,能够有效的提高网络关注重点区域,从而解决小目标和遮挡目标难以识别的问题.本文在Yolov4-Tiny 的 CSPBlock 中引入了空间通道双
17、注意力机制模块 CBAM,构建了 CBAM-CSPBlock 模块.CBAM14注意力机制是由通道注意力(CAM)和空间注意力(SAM)两个模块构成,结构如图 3 所示.根据输入的特征图分别经过 CAM 和 SAM,能够得到通道和空间维度上的信息权重,在特征提取阶段能够提高特征在通道和空间上的联系,从而能够很好的提取到目标的有效特征.通道注意力(CAM)主要是通过在不同通道上对特征提取的内容进行建模并将特征图像从空间层次上进行压缩.另外,对传入的特征图通过池化方法操作聚合特征图映射的空间信息,然后再输入到一个感知机网络中并获得通道注意力权重,再经过归一化函数获取两个经过压缩的注意力权重,最后进
18、行求和逐通道加权到原始特征图上.计算公式如公式(1)所示:Mc(F)=(MLP(AvgPool(F)+MLP(MaxPool(F)=(w1(w0(Fcavg)+w1(w0(Fcmax)(1)式中,F 表示输入的特征图,表示激活函数.空间注意力(SAM)是对通道进行压缩,把初始特征图上的像素点信息转换到别的空间中,而且预留了原始图片中的主要的信息.通道注意力得到的特征图通过两个池化操作得到空间注意力特征,通过计算像素点信息的权重,保留重要的像素点信息,实现了 输入视频流改进 yolov4-tiny考生检测网络是否检测到考生?Alphapose 人体姿态估计模型ST-GCN(时空图卷积神经网络)行
19、为识别正常举手左右扭头传递纸条图1整体算法流程图Fig.1 overall algorithm flow chart Input(416416,3)CBL(208208,32)CBL(104104,64)CBAM_CSPBlock(5252,128)CBAM_CSPBlock(2626,256)CBAM_CSPBlock(1313,512)33 conv33 convAvgPool2D(11)AvgPool2D(22)AvgPool2D(33)AvgPool2D(66)1x1 convCBLConv+UpSamplingConcatCBLCBLYolo headYolo head2626n(5
20、+n)1313n(5+n)CBLConv2DBNLeaky-ReLUCBAM_CSPBlockCBLCBLCBLConcatCBAMCBLCBAM_CSPDarknet53-TinyPPMConcat图2改进后的 Yolov4-Tiny 整体网络结构图Fig.2 Improved Yolov4-Tiny overall network structure diagram第 9 期王林,等:一种多网融合的分阶段考生行为识别检测算法47 空间特征选择和融合的功能.计算公式如公式(2)所示:Ms(F)=(f77(AvgPool(F);MaxPool(F)(2)f77式中表示卷积核的大小.2.1.2引
21、入 PPM 池化结构通过主干网络进行特征提取,其网络会越来越深,就会导致提取的特征的感受野存在一些偏差,从而会导致网络不能很好的融合全局的特征,因此提取到的特征就会丢失一些细节信息.在主干网络后引入了金字塔池化模块 PPM15.结构如图 4 所示.Input33 convAvgPool2D(11)AvgPool2D(22)AvgPool2D(33)AvgPool2D(66)33 convOutput11 conv图 4PPM 池化结构Fig.4 PPM pooling structurePPM 池化结构采用了 11,22,33,66 四种不同的金字塔池化尺度用于传入高级语义信息,能够将高层丰富
22、的信息映射到低层特征上.将特征图池化到目标尺寸,利用 11 conv 将池化后的结果进行通道压缩,压缩为原来通道的四分之一,然后将原特征图和上采样的结果进行级联融合.最后将融合的不同区域的有效上下文信息输入检测头,采用 PPM 池化结构可以提高网络获取全局信息的能力,增强弱小遮挡目标的表征能力并且不会带来性能的损失.2.2Alphapose 人体姿态估计Alphapose16是上海交通大学团队提出的一种多人姿态估计框架.该框架解决了边界框定位错误和产生检测框冗余两个问题.Alphapose 首先采用Yolov3-spp 作为人体目标检测网络,提取出人体候选框.然后将提取到的候选框送入一种附加在
23、单人姿态估计(SPPE)上的对称变空间换网络(SSTN)上,该网络包括两部分:空间变换网络(STN)和逆空间变换网络(SDTN).STN 是使输入的图片在训练阶段直接自动选择感兴趣的区域特征,比如检测图片中的人体,STN 就会使图片中的人体位置居中.SDTN 将单人姿态估计出的人体姿态线和图片反向变换到输入图像中.并行的 SPPE 判断人体姿态的中心点是否在人体检测框的中心,不在中心就返回较大误差,进而达到优化 STN 的目的.它只存在于训练阶段,在测试阶段没有并行 SPPE.针对产生的人体检测框出现冗 Input featureCAMSAMBefinedfeature最大池化平均池化MLPS
24、igmoid最大池化平均池化Concat33 ConvSigmoidC1WC1WC1WC1WC1WC1WC1(W+1)C1WMsMc图3CBAM 注意力机制模块Fig.3 CBAM attention mechanism module48微电子学与计算机2023 年余现象,提出了一种参数化姿态非极大抑制.通过姿态距离和空间距离消除多余的姿态,从而提高人体姿态估计的精度.为了增加样本数量提出了一种姿态引导区域框生成器(PGPG)可以很好的训练网络.Alphapose 在 COCO 数据集上输出 17 个关键点坐标,其对于遮挡的部分不检测关键点,考生在考试过程中下半身腿部都被课桌遮挡,可以忽略不计
25、,所以我们在研究考生异常行为时只考虑考生上半身的动作,只提取考生的上半身骨架关键点,采用 Alphapose姿态估计模型提取考生上半身中鼻子、左右眼睛、左右耳朵、颈部、左右肩膀、左右手肘、左右手腕十二个关键点坐标位置,利用各个关键点之间的联系构成连线.构建了如图 5 所示的人体姿态骨架图.68101142013579图 5考生人体姿态骨架图Fig.5 Skeleton diagram of examinees body posture 2.3时空图卷积神经网络的考生行为识别模型考生在考场中出现异常行为的时候其身体骨架通常包含了大量的人体关键信息,考生出现异常行为往往是短时间内做出的一系列动作,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一种 融合 分阶段 考生 行为 识别 检测 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。