基于立体视觉的公交车客流量统计方法研究_刘彬.pdf
《基于立体视觉的公交车客流量统计方法研究_刘彬.pdf》由会员分享,可在线阅读,更多相关《基于立体视觉的公交车客流量统计方法研究_刘彬.pdf(6页珍藏版)》请在咨信网上搜索。
1、第 51 卷收稿日期:2022年8月11日,修回日期:2022年9月19日作者简介:刘彬,男,硕士,研究方向:机器视觉、深度学习。魏海峰,男,博士,副教授,研究方向:电机控制、船舶电力系统。张懿,女,博士,副教授,研究方向:船舶电力系统。李垣江,男,博士,副教授,研究方向:故障诊断、视觉传感。1引言公交车客流量统计有着重要的社会价值和现实意义,不仅为公交线路规划提供精确的客流数据支持,而且对交通配置和公共安全也都有着重要的作用。当前基于视觉的统计方式一般分为单目和双目(立体),其中立体视觉统计方式通过采集场景的深度信息,可有效克服单目视觉对光线、阴影变化较敏感的问题。本文在嵌入式硬件平台上用立
2、体视觉来进行客流量统计。首先对双目摄像头进行同步标定1,然后用优化的MC-CNN2网络进行立体匹配3得到视差图,在此基础上恢复公交车内真实的深度图像4,通过获取乘客人头轮廓进行跟踪和计数,从而解决乘客遮挡、拥挤以及光线变化带来的客流统计精度较低的问题。系统实现框架如图1所示。图1公交车客流量统计系统框图总第 401 期2023 年第 3 期计算机与数字工程Computer&Digital EngineeringVol.51 No.3基于立体视觉的公交车客流量统计方法研究刘彬魏海峰张懿李垣江(江苏科技大学电子信息学院镇江212003)摘要针对公交客流统计中因光照、拥挤等引发的统计精度较差问题,提
3、出一种适用于硬件平台的立体视觉客流统计方法及系统。通过优化后的MC-CNN网络获取由双目视觉匹配得到的视差图,处理转化为深度图像去实现乘客头部轮廓的分割、识别、跟踪与计数,有效解决了因遮挡、光线变化等带来的虚假目标和统计精度变差的问题。关键词双目视觉;特征提取;立体匹配;公交车客流量中图分类号TP39DOI:10.3969/j.issn.1672-9722.2023.03.028Research on Bus Passenger Flow Statistics Method Based onStereoscopic VisionLIU BinWEI HaifengZHANG YiLI Yuan
4、jiang(School of Electrical and Information,Jiangsu University of Science and Technology,Zhenjiang212003)AbstractIn order to solve the problem of poor statistical accuracy caused by illumination and congestion in bus passengerflow statistics,a method and system of stereo vision passenger flow statist
5、ics suitable for hardware platform are proposed.Throughthe optimized MC-CNN network,the parallax map obtained by binocular vision matching is obtained,and the processed image isconverted into a depth image to realize the segmentation,recognition,tracking and counting of passenger head contour,thus e
6、ffectively solving the problem of false targets and poor statistical accuracy caused by occlusion and light change.Key Wordsbinocular vision,feature extraction,stereo matching,bus passenger flowClass NumberTP396902023 年第 3 期计算机与数字工程2双目的相机标定与同步双目摄像头的标定与同步是获得正确客流计数的首要步骤。对两个同一型号的双目摄像头进行标定,再将标定好的两个双目摄像头
7、装设于公交车前门的正上方,并采用DSP对双目摄像头进行同步控制5。图2双目标定示意图如图2所示,空间任一点的世界坐标系(X,Y,Z)和像素坐标系(u,v)对应关系为17Zc|uv1=|fusu00fvv0001RT01|XYZ1=M1M2|XYZ1(1)M1与M2是双目摄像头的内外参数矩阵,由双目摄像头完整的内部参数构成内参矩阵M1;由双目摄像头的旋转矩阵与平移向量构成外参矩阵M2,由此判断双目摄像头在立体空间中的坐标位置以及方向。为使标定结果更加精确,本文采集30副棋盘格图像对双目摄像头进行标定,得到左摄 像 机 内 参 数Cx:665.15838,Cy:359.54200,fx:1148.
8、45760,fy:1148.78469,右摄像机内参数 Cx:590.80168,Cy:403.00080,fx:1157.66228,fy:1156.92762,左 相 机 的 畸 变 系 数 D1 0.02286-0.07553-0.00186 0.00218 0.00000,右相机的畸变 系 数 Dr 0.04343-0.11692 0.00215-0.001670.00000,根据约束条件,可求出旋转矩阵 R和平移向量 T-60.23329-0.62472 1.65832。通过DSP判断同一帧中的左右两幅图像的场同步信号下降沿间有无时间差异来判断左右双目摄像头是否同步。通过DSP判断出
9、哪副图像超前,并记录超前的时钟个数,并抑制超前摄像机相应的时钟数量,实现摄像机的同步。3基于优化MC-CNN的立体匹配算法为了在DSP+FPGA硬件平台上高效快速的完成双目视觉的立体匹配以及视差计算,本文在MC-CNN基础上,通过优化网络结构获得双目视差。3.1MC-CNNMC-CNN 网络架构分为精准架构 MC-CNN-acrt和快速架构 MC-CNN-fst两种,其中前者的耗时大约是后者的百倍14。输入左图像块输入右图像块卷积层卷积层激活函数层激活函数层卷积层卷积层4归一化向量点乘相似性度量图3MC-CNN-fst快速网络架构图如图3所示,通过两个分支网络提取左右图像的特征向量并做点积运算
10、,最后进行相似性打分 8。MC-CNN-fst先将左右视图的图像块分别输入两个分支的特征提取部分,分别得到一个输出特征向量Gw(x1)、Gw(x2),然后建立两个特征向量距离度量,作为输入图像块的相似度计算函数。网络的两个分支所用的权值9、网络结构都是一样的,网络的前半部分提取图片的特征向量,网络的最后一层用来定义计算特征向量之间相似度的损失函数。3.2网络结构优化如图4所示,本文基于MC-CNN-fst提出优化的双目立体匹配的结构。其改进之处在于:图4双目立体匹配网络架构691第 51 卷1)在卷积层后面加入最大池化层,能够在尽可能保留图片空间信息的前提下,降低图片的尺寸,增大卷积核感受野,
11、另外还能减少网络参数和计算量,加快计算过程。2)把 ReLU 激活函数替换为 ELU(exponentialliner units)激活函数10,不仅解决了 ReLU 激活函数没有负值部分导致神经网络的下一层产生偏差的问题,另外还能保证失活状态时的噪声鲁棒性。3)将特征提取网络中的卷积层由4层增加到6层,计算精度更高,对图像特征的提取能力变强。在选择图像像素点局部支持窗作为匹配基元的时候,不仅要能和其他像素点的基元区分,而且要能很好的表示当前的像素点,故本文选择1515的窗口来进行基元选配,各层参数如表1所示。表1各层网络参数网络层L1L2L3L4L5L6L7L8L9L10网络层类型输入层卷积
12、层卷积层池化层卷积层卷积层池化层卷积层卷积层池化层核大小555533333333333333移动步长112112112输出维度1515215153221515322773227748277482334823364233642116423.3算法实现过程1)通过将输入的图像作为输入数据,通过MC-CNN网络模型获取输出的特征向量。2)对两个输入特征向量进行正则规范化处理和内积运算,构建稀疏损失体,计算匹配损失。3)重采样损失体到原始图片尺寸,使用 Softmax函数将匹配损失值转化为双目视差的概率分布,最后使用视差回归函数来输出亚像素的预测视差。4乘客头部识别经过立体匹配得到的视差图,经过进一步
13、处理可得到深度图。如图5,图中b为双目摄像头的基线距离,f为双目摄像头的焦距,P1(u1,v1)和Pr(ur,vr)分别为双目相机左右成像平面的坐标点,得到深度Z与视差d的关系Z=bf/d,其中d=(u1-u2)。在本次试验中使用Meanshift算法11对深度图像进行预处理即只需要特征空间的样本点,不需要额外的先验知识,就可快速的实现视差图像。在Meanshift 向量中对于 d 维空间中的 n 个样本点(X1-Xn)有以下定义:Mh(x)=1Kxi=sh(xi-x)(2)Sh(x)=y:(y-x)T(y-x)h2(3)P(uL,vL)P(uR,vR)fbYZXfP(x,y,z)x,y,z图
14、5相机成像模型上式中,xi为概率密度函数f(x)中采样得到样本点,sh代表由全部满足上式所示的y点组合成的高维球区域,其半径为h,(Xi-X)为样本点xi的偏移量,k代表在区域sh中有k个样本点落入,Mh(x)是sh区域中的平均偏移量12。通过上式推算目标区域的概率密度分布函数。同时在接下来的目标区域中,做圆心为点 x、半径为 h的圆。然后把圆心 x作为起始点,落在这个圆内的所有点和圆心都会对应一个向量,把所有的产生的向量相加最后得到一个向量,即为Meanshift向量。再以Meanshift向量的终点作为圆心,继续上述过程直到收敛到局部概率密度分布极大点。由于乘客头顶是整个拍摄范围的局部最高
15、点,使用区域生长法来对乘客的头部进行识别及分割,将乘客头部的局部最高点作为生长种子,乘客头间距的灰度梯度13作为阈值,从而判断生长种子是否进行生长或者终止,进而识别乘客。5实验结果及分析5.1立体匹配实验本文在 KITTI2015 图像数据集上评估本文提出的立体匹配网络。KITTI2015数据集包含有400组不同的遮挡、光照等不同场景的图像数据,并且可以对改进的立体匹配算法进行测验。为了探究不同数量的特征提取模块以及池化层的有无对于双目图像立体匹配精度的影响,使用层数不等的卷积层和池化层构建的卷积神经网络进行立体匹配误差实验。实验结果结果如表2所示,有六层卷积层的卷积神经网络立体匹配效果最好,
16、匹配误差最小,另外在卷积层数相同时,有池化层的情况下立体匹配效果更好。刘彬等:基于立体视觉的公交车客流量统计方法研究6922023 年第 3 期计算机与数字工程表2不同层数卷积层的匹配误(N=2、3、4)卷积层数446688池化层平均视差误差13.8914.588.248.458.3828.56本文给出的立体匹配方法不仅能有效减少多步骤产生的误差累积,而且避免了不同模块间的相互影响,把双目图像的立体匹配完全转变为定位回归问题,能够有效实现双目目标的特征约束表达,具有较高的匹配精度。5.2目标跟踪与计数本文根据公交车客流量统计的要求,选用基于质心空间欧氏距离最短法来对乘客运动目标进行跟踪14。将
17、识别出来的乘客形心坐标作为目标质心坐标,然后使用空间欧式距离最短法15对目标质心匹配关联和绘制轨迹,最后根据乘客质心的运动轨迹来判别乘客下车或上车,并对判别结果进行统计,算法具步骤如下:1)参数初始化:假设当前视频帧数为L帧,其图像帧中有ML个乘客,前一帧中含有的乘客数目为ML-1,则Zi(L)=(Xi,Yi)=(Zix,Ziy)代表L帧中的第i个乘客的质心坐标向量,i的取值范围为(1,ML)。2)关联匹配:视频帧中第L帧第i个乘客目标与前一帧中ML-1个乘客运动目标质心最小欧氏距离为dijmin=argminj(1,ML-1)Zi(L)-Ze(L-1)(4)因此如果第L-1帧中的第e个乘客运
18、动目标的质心坐标向量和L帧中的第i个乘客运动目标相匹配,就完成了视频帧中L帧的第i个乘客的匹配跟踪,用同样的方法完成视频L帧中其他乘客运动目标的匹配跟踪。3)客流统计:假设总匹配的乘客运动目标为m,当m=ML-1=ML时表明公交车中没有乘客上下车,当mML-1时表明在第L帧有目标乘客消失,记录乘客消失的坐标点和数量;同理,当mML时,表明公交车中有新的乘客目标出现,找出并记录新出现乘客目标的坐标位置和数量,对增减乘客目标起始点的距离和位置坐标设置阈值判断乘客上下车并进行统计。图6为对乘客运动目标的检测过程,其中图6(a)、(b)为公交车前门获取的双目视图。为增加拍摄环境的复杂性,有多位乘客戴有
19、黑色头巾;图6(c)是经过改进的神经网络立体匹配得到的视差图;图6(d)是经过Meanshift预处理后的深度图像(已过滤公交车图像中的冗余嘈杂信息);图6(e)是经过区域生长法筛选后的人头轮廓;图6(f)是公交车中目标乘客人头检测结果,用白圈在目标乘客质心位置标记。(a)左视图(b)右视图(c)视差图(d)预处理后的深度图(e)筛选后的人头轮廓(f)检测结果图 6实验结果系统运行界面如图7所示。为验证本文客流统计方法有效性,在公交车的前后门各配置一套基于双面视觉的客流统计系统。在各个系统中,双目摄像头垂直向下固定安装在公交车前后门正上方以获取乘客头顶部区域特征,同时使用窗帘和灯光调节公交车内
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 立体 视觉 公交车 客流量 统计 方法 研究 刘彬
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。