基于轻量级姿态估计的跳绳检测计数算法.pdf
《基于轻量级姿态估计的跳绳检测计数算法.pdf》由会员分享,可在线阅读,更多相关《基于轻量级姿态估计的跳绳检测计数算法.pdf(9页珍藏版)》请在咨信网上搜索。
1、基于轻量级姿态估计的跳绳检测计数算法陈泽海1,2,吴君钦1,林俊宇21(江西理工大学信息工程学院,赣州341000)2(广东佛山联创工程研究生院,佛山528311)通信作者:林俊宇,E-mail:摘要:针对人体姿态估计算法可实施性低以及基于姿态估计的跳绳计数精度不高的问题,提出了一种基于轻量级人体姿态估计网络的跳绳计数算法.该算法首先输入跳绳视频,接着利用帧间差分法提取关键帧图像并送入人体姿态估计网络进行关节点检测;同时为了解决轻量级网络检测精度不高的问题,提出优化的 LitePose 检测模型,采用自适应感知解码方法对模型的解码部分进行优化从而减少量化误差;然后采用卡尔曼滤波对坐标数据进行平
2、滑降噪,以减小坐标抖动误差;最终通过关键点坐标变化判断跳绳计数.实验结果表明,在相同图像分辨率和环境配置下,本文提出的算法使用优化的 LitePose-S 网络模型,不仅未增加模型参数量和运算复杂度,同时网络检测精度提高了 0.7%,且优于其他对比网络,而且本算法在跳绳计数时的平均误差率最低可达 1.00%,可以利用人体姿态估计的结果有效地判断人体起跳和落地情况,最终得出计数结果.关键词:人工智能;姿态估计;姿态关节点;帧间差分法;卡尔曼滤波引用格式:陈泽海,吴君钦,林俊宇.基于轻量级姿态估计的跳绳检测计数算法.计算机系统应用,2023,32(12):152160.http:/www.c-s-
3、 Rope Detection and Counting Algorithm Based on Lightweight Pose EstimationCHENZe-Hai1,2,WUJun-Qin1,LINJun-Yu21(SchoolofInformationEngineering,JiangxiUniversityofScienceandTechnology,Ganzhou341000,China)2(GuangdongFoshanLianchuangGraduateofEngineering,Foshan528311,China)Abstract:Toaddressthelowfeasi
4、bilityofhumanposeestimationalgorithmsandlowaccuracyofjumpropecountingbasedonposeestimation,thisstudyproposesajumpropecountingalgorithmbasedonalightweighthumanposeestimationnetwork.Thealgorithmfirstinputsajumpropevideo,thenextractskeyframeimagesbyinter-framedifferencemethod,andfeedsthemintothehumanpo
5、seestimationnetworkforkeyjointpointdetection.Toimprovethedetectionaccuracyofthelightweightnetwork,thestudybuildsanoptimizedLitePosedetectionmodel,whichemploysadaptiveperceptiondecodingtooptimizethedecodingpartinthemodelandreducequantizationerrors.Furthermore,aKalmanfilterisadoptedtosmoothanddenoiset
6、hecoordinatedata,reducingcoordinatejittererrors.Finally,jumpropecountingisdeterminedbasedonthechangesinkey-pointcoordinates.Experimentalresultsdemonstratethat,inthesameimageresolutionandenvironmentalconditions,theproposedalgorithmemployingtheoptimizedLitePose-Snetworkmodeldoesnotincreasetheparameter
7、sizeandcomputationalcomplexityofthemodelbutimprovesnetworkdetectionaccuracyby0.7%comparedwithothercomparisonnetworks.Meanwhile,theaverageerrorrateofthisalgorithminjumpropecountingcanreachaminimumof1.00%.Thealgorithmeffectivelydeterminesthetakeoffandlandingofthehumanbodybytheresultsofhumanposeestimat
8、ionandyieldscountingresults.Key words:artificialintelligence;poseestimation;posejointpoint;inter-framedifferencemethod;Kalmanfilter计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Applications,2023,32(12):152160doi:10.15888/ki.csa.009308http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041基金项目:国家自然
9、科学基金应急管理项目(61741109)收稿时间:2023-05-15;修改时间:2023-06-14;采用时间:2023-06-28;csa 在线出版时间:2023-09-15CNKI 网络首发时间:2023-09-18152软件技术算法SoftwareTechniqueAlgorithm1引言近年来,人体姿态估计作为计算机视觉领域中一项基础而具有挑战性的任务受到了广泛关注,并在人体动作识别、行为分析和人机交互等任务中得到了广泛应用.该技术的主要目标是定位人体骨骼关键点,如肘部、腕部等,以实现对人体姿势和动作的准确推测.人体姿态估计技术在多个领域取得了出色的效果1,在基于视觉的人体姿态估计方
10、面,其具有低成本、便携等优势,为智能健身提供了一种全新的交互方式2,3,并且通过将人体姿态估计技术与深度学习算法相结合,并利用简单便携的设备,如智能手机、智能手环等,实现跳绳计数任务等应用.这种结合使得人们可以更加方便地进行健身锻炼,同时享受到姿势估计技术带来的精准监控和反馈.早期基于卷积神经网络(CNN)的姿态估计直接从图像中预测关节点位置.然而,这种方法很难获得精确的坐标且鲁棒性较差,为了解决这个问题,DeepPose4采用深度神经网络从图像中回归关键点的坐标,虽然一定程度改善了精度问题,但是网络的收敛速度非常缓慢,预测的坐标还是不够准确.为了改进精度和速度,Tompson 等人5提出了使
11、用热力图来表示关节点的信息,热力图中的数值大小反映了该位置是关节点的概率大小,通过寻找热力图中最大值的坐标从而确定关节点的位置,这种使用热力图表示关节点位置的方法极大地推动了基于 CNN 的人体姿态估计方法的发展.由于可以通过卷积操作直接生成热力图,因此该方法在提高准确性的同时也提升了计算效率.Newell 等人提出多次上采样和下采样堆叠而成的 Hourglass 模块6,使网络能够在不同的尺度上进行多次特征提取和融合,从而获得更加准确和鲁棒的关键点估计结果.2019 年Sun 等人提出的 HRNet7更是在人体姿态估计任务中取得了 SOTA 级的表现,他提出一种基于多分辨率子网络并行融合的人
12、体姿态估计方法,通过保持高分辨率特征来提高准确性.HigherHRNet8在基于 HRNet的多分辨率网络上通过增加更高分辨率的特征金字塔结构,引入了更丰富的多尺度特征信息,以获得更准确、更精细的姿态估计结果.同时它还利用强化的前项和后项空间转换器来提升特征的表达能力和姿态估计的鲁棒性,在保持高效率的同时,实现了更准确、更稳健的人体姿态估计.但是由于算力和内存限制,移动设备和嵌入式平台不适合部署大型网络9,因此,目前的人体姿态估计网络难以得到广泛应用.Neff 等人在 HRNet 基础上提出了 EfficientHRNet10,通过采用轻量级网络设计和优化的特征融合策略实现了在计算效率和准确性
13、上的平衡,使得它在保持高分辨率特征的同时,减少了模型的参数量和计算复杂度,使得姿态估计更加高效而精确.Zhang 等人11构建了一个轻量化的沙漏网络,利用快速姿态蒸馏模型学习策略,能够更有效地训练轻量化人体姿态估计网络.而人体姿态估计关键点检测的方法大致分为两类:一类是以 HRNet 为代表的自顶而下的网络框架,另外一类是以 OpenPose12为代表的自底而上的网络框架.其中第 1 类一般都是先进行物体检测,将图像中每个人的人体矩形框识别并进行裁剪,最后在此区域内进行单人的人体关键点检测,因为只在人体矩形框内进行单人检测,所以去除了人体之外的干扰,其准确率是目前姿态估计所有框架中最高的,但是
14、要先检测人体再进行关键点检测,所以在多人人体关键点检测下,其检测效率也会随之下降.自底而上的算法则是直接先将图像中所有人体的关键点全部检测出来,再通过关节点之间的关联进行拼接最后得到人体姿态,该算法的优势在于它的检测效率和实时性比较高,但是易受非人体因素干扰,所以其精度相对较低.但是大多数方法需要使用完整的骨架模型或较复杂的网络结构,限制了它们在移动设备上的应用,其低误差率、高实时性同算法的可实施性不可兼得.而跳绳作为一种常见的运动方式且与人体姿态信息相关联,传统的跳绳计数方法主要依靠人眼手动计数,并且容易出现误差.为了解决这个问题,越来越多的研究者开始尝试采用基于模型的计数方法,这些方法主要
15、是通过使用运动捕捉设备,如惯性测量单元(IMU)和深度相机或者额外的传感器和复杂的硬件1315,来获取用户的行动信息,并通过算法进行计数.然而这些设备通常比较笨重,难以携带,且价格较高.因此,如何降低计数方法的设备依赖性,提高其可行性和普及性,成为一个研究难点.针对以上这些问题本文提出了一种跳绳计数算法,采用了一个端到端、自底而上方法的多人轻量级人体姿态估计网络来提取人体关键点坐标,并且对网络的解码方法进行了优化,采用了一种自适应感知解码方法,降低了热图最大激活点映射回原图坐标时导致的2023年第32卷第12期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniq
16、ueAlgorithm软件技术算法153量化误差,然后用卡尔曼滤波将人体姿态估计网络预测的关键点坐标进行平滑滤波后,最后再通过计算关节点的运动变化来进行跳绳计数.实现在手机、嵌入式开发板等边缘计算设备上能够快速准确地完成跳绳计数任务,同时为人体姿态估计算法进行应用落地提供一个参考方向.2基于人体姿态估计的跳绳计数算法 2.1 算法流程本文提出的基于人体姿态估计的跳绳计数算法的实现流程如图 1 所示,主要由提取关键帧、关键点检测、数据处理和判断计数 4 个部分构成.首先,输入跳绳视频并进行帧间差分法,提取关键帧图像;接下来,利用优化的人体姿态估计模型进行关节点检测;然后,通过卡尔曼滤波将人体姿态
17、估计模型得到的预测估计作为观测值进行修正,以获得状态变量(关节点坐标)的最优估计;最后,通过关键点的坐标变化进行判断计数,从而最终得到计数结果.视频计数结果是否完成检测判断计数符合条件计数+1帧间差分法否否是是关键帧人体姿态估计模型进行人体关节点检测卡尔曼滤波图 1算法流程图 2.2 提取关键帧帧间差分法16,17是一种通过在视频图像序列中相邻两帧进行差分运算来获取运动目标轮廓的方法.该方法具有运行速度快、动态环境自适应性强以及对场景光线变化不敏感等特点.本文利用该方法提取跳绳运动中人体关节点变化的关键帧图像.但由于跳绳动作较快,本文采用了三帧差分法.具体实现为:首先使用 OpenCV 库函数
18、读取视频,并将读取到的视频帧图像从 BGR 格式转换为 LUV 格式;然后将连续 3 帧中每个像素点的灰度值进行差值运算,并将得到的差值进行累加,得到 3 帧图像的差分强度,根据像素总数计算平均帧间差分强度;接下来对序列进行卷积平滑运算,平滑后的极值即对应着视频关键帧.虽然本文采用的是三帧差分法,但仍能较好地提取出跳绳动作的关键帧.2.3 人体关键点检测2.3.1人体关键点检测模型自顶而下的算法虽然精度高但其实时性低且计算量都普遍偏大难以部署到边缘设备上,所以本文选用的是基于自底而上的轻量级人体姿态估计网络 LitePose18作为基础架构并在其解码部分进行优化.LitePose 是现有即精确
19、、网络结构简单、算力要求不高且能够在边缘端部署的多人实时姿态估计的高效架构设计.LitePose 在 HigherHRNet 的基础上重新设计出了一个高效的单分支结构,其结构如图 2 所示,它采用了改进的 MobileNetV219作为主干网络提取特征,使用了步长为 7 的大卷积核,在只增加了很小的计算量的情况下,增强了尺度变化的能力,同时为了保持高分辨率特征,将原有的上采样替换成了反卷积20,不仅消除了高分辨率分支中的冗余细化,还能以单分支的形式进行尺度感知的多分辨率融合.检测出所有的关键点之后再使用关联嵌入的方法进行分组最后得到完整的人体姿态图.Conv33(s=2)+Conv332244
20、48112MobileNetV2Stage1MobileNetV2Stage2MobileNetV2MobileNetV2DeconvDeconvDeconvOutput1Output2+68101056282856112224Stage3Stage4图 2LitePose-S 网络结构图计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第12期154软件技术算法SoftwareTechniqueAlgorithm2.3.2解码过程目前主流的人体姿态估计网络都是采用的基于热图的回归方法,本文使用的 LitePose 也是基于热图回归的方式.模型先将人体的每个关节坐标变成以
21、其坐标为中心的二维高斯分布的关节热图,再送入网络中进行监督,这就是坐标编码,但是为了降低计算量通常都是先进行下采样形成低分辨率热图;在热图预测之后同样也需要将分辨率恢复并且将热图转换成原始坐标,最终预测被认为是具有最大激活的位置,称这一过程为坐标解码.在预测生成的低分辨率热图上找到最大激活点再映射回原图得到关键点坐标这一解码过程中会存在量化误差,对于这种误差,现有的人体姿态估计都是采用 Hourglass 中的方法对最大激活点在解码之前进行后处理,也就是将预测的坐标,由最大激活位置向第 2 大激活位置的方向,移动 0.25 个像素然后再上采样恢复成原图分辨率得到坐标.这种手工设计偏移补偿解码方
22、法预测出来的最大激活位置并不是原始图像中关节点的准确位置,只是一个粗略大概的位置,这种方法虽然能够手工的将误差进行补偿,但是还是不能够使预测热图中的关键点解码成更加精确的原始坐标位置.所以本文使用了一种自适应感知的解码方法去代替原先手工补偿的解码方法,通过热图自己的分布结构来自适应预测出它最大激活点的位置,从而使模型在解码过程中得到更准确的定位.2.3.3自适应感知解码因为热图的生成通常都是通过二维高斯核生成的,但是发现模型预测的热图并不是严格遵守高斯分布的,会出现多峰的情况,会对解码方法造成负面影响,因此在进行解码之前,要先将热图进行平滑预处理.首先利用与训练数据具有相同变化的高斯核 K 来
23、平滑多峰带来的影响,具体操作如下:p=K p(1)p其中,表示预测的热图,表示卷积运算.pp同时为了保证和原始热图具有相同的分辨率,还需通过式(2)对进行缩放,使其最大激活点等于.p=pmin(p)max(p)min(p)max(p)(2)平滑过后的热图就严格遵从与高斯分布,因此预测的热图与真实热图相同,其热图可以表示为:G=1(2)|12exp(12(x)T1(x)(3)x其中,表示预测热图中的一个像素位置,则是预测的最大激活点对应的高斯均值,表示为两个方向上的协方差 的对角矩阵,其表示如下:=2002(4)H为了方便计算根据对数似然优化的原则,将式(3)进行对数变化变成二次形式,此时其表示
24、为:H(x;,)=ln(G)=ln(2)12ln(|)12(x)T1(x)(5)解码的最终目的就是为了从热图中获得最大激活位置,也就是这个分布中极值点的位置,所以在极值点处必定满足其一阶导数为 0,所以可以得到式(6):D(x)|x=HTx?x=1(x)|x=0(6)hH()再利用泰勒定理去将预测热图中最大激活点 的泰勒级数进行展开去近似:H()=H(h)+D(h)(h)+12(h)TD(h)(h)(7)D(h)h其中,是在极值点 处的二阶导,由式(6)可以得到其结果为:D(h)=D(x)?x=h=1(8)h最后通过式(5)式(8)可以得到通过预测热图的最大激活点 来近似得到的真正最大激活点位
25、置,结果为:=h(D(h)1D(h)(9)得到极大值点的位置就可以通过式(10)进行还原得到预测的最终原始空间下的关节点坐标,其表示如下:p=p(10)其中,为热图下采样的倍率.这种通过泰勒级数结合最大激活点的一阶偏导和二阶偏导来联合定位真正极值点位置的方法,不仅能够自适应探索热图分布的统计信息,从而去推断潜在的极值点位置,比之前手工往第 2 大激活点位置偏移0.25 个像素点要更具有理论上的说服力,而且这种解2023年第32卷第12期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法155码方式只需要计算每个预测热图最大激活
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 轻量级 姿态 估计 跳绳 检测 计数 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。