基于神经网络的声学参数预测方法研究.pdf
《基于神经网络的声学参数预测方法研究.pdf》由会员分享,可在线阅读,更多相关《基于神经网络的声学参数预测方法研究.pdf(5页珍藏版)》请在咨信网上搜索。
1、引用格式:引用格式:万宇鹏,周远波,文捷,等.基于神经网络的声学参数预测方法研究J.中国测试,2024,50(2):167-171.WANYupeng,ZHOUYuanbo,WENJie,etal.ResearchofacousticparameterpredictionmethodbasedonneuralnetworkJ.ChinaMeasurement&Test,2024,50(2):167-171.DOI:10.11857/j.issn.1674-5124.2023030032基于神经网络的声学参数预测方法研究万宇鹏1,周远波2,文捷1,陈政1,赵晶1(1.中国测试技术研究院声学研究所
2、,四川成都610021;2.四川海岩声学科技有限公司,四川成都610599)摘要:为更加准确高效地预测建筑声学客观音质参数,该文基于机器学习的室内中频混响时间和语言传输指数的神经网络预测方法。将基于机器学习的神经网络技术与计算机声学模拟仿真技术相结合,提取 800 个厅堂建筑的10 个典型特征参数和 3 个目标参数,利用 Odeon 声学仿真平台,针对不同音质参数指标建立多个数值矩阵训练样本数据库,采用机器学习理论对混响时间、语言传输指数等指标进行 BP 神经网络数据拟合训练。对训练结果的均方误差、误差分布及回归系数进行评估,结果显示混响时间参数的训练均方误差小于 0.05s,语言传输指数参数
3、的训练均方误差小于 1.5104,所有目标参数的回归系数 R 值均优于 0.95。评估结果表明,该神经网络具备良好的预测准确性、数据泛化性和应用适用性。经实例验证,依托该神经网络编译和封装的应用程序可以实现对目标参数的快速评价,减少人力物力,提高工作效率。关键词:机器学习;神经网络;声学设计;参数预测;混响时间;语言清晰度中图分类号:TU112;TB9文献标志码:A文章编号:16745124(2024)02016705Research of acoustic parameter prediction methodbased on neural networkWANYupeng1,ZHOUYua
4、nbo2,WENJie1,CHENZheng1,ZHAOJing1(1.InstituteofAcoustics,NationalInstituteofMeasurementandTestingTechnology,Chengdu610000,China;2.SichuanHaiyanAcousticTechnologyCo.,Ltd.,Chengdu610599,China)Abstract:Inordertopredicttheobjectivesoundqualityparametersofarchitecturalacousticsmoreaccuratelyandefficientl
5、y,thispaperstudiestheneuralnetworkpredictionmethodofindoormid-frequencyreverberationtimeandspeechtransmissionindexbasedonmachinelearning.Inthisstudy,theneuralnetworktechnologybasedonmachinelearningandcomputeracousticsimulationtechnologywerecombinedtoextract10typicalcharacteristicparametersand3target
6、parametersof800hallbuildings.ByusingOdeonacousticsimulationplatform,multiplenumericalmatrixtrainingsampledatabaseswereestablishedfordifferentparametersofsound quality.Using machine learning theory,BP neural network data fitting training is conducted forreverberationtime,speechtransmissionindexandoth
7、erindicators.Themeansquareerror,errordistributionandregressioncoefficientofthetrainingresultsareevaluated.Theresultsshowthatthetrainingmeansquareerror of reverberation time parameter is less than 0.05 s,and the training mean square error of speech收稿日期:2023-03-10;收到修改稿日期:2023-05-21基金项目:2023 年度重要技术标准研
8、究项目(ZYBZ2023-5)作者简介:万宇鹏(1985-),男,四川成都市人,高级工程师,硕士,主要从事计量测试领域相关工作。通信作者:赵晶(1974-),女,江苏启东市人,高级工程师,硕士,主要从事计量测试领域相关工作。第50卷第2期中国测试Vol.50No.22024年2月CHINAMEASUREMENT&TESTFebruary,2024transmissionindexparameterislessthan1.5104,theregressioncoefficientRvaluesofalltargetparametersarebetterthan0.95.Theevaluation
9、resultsindicatethat,theneuralnetworkhasgoodpredictionaccuracy,datageneralizationandapplicationapplicability.Theapplicationprogramcompiledandpackagedbasedontheneuralnetworkcanrealizetherapidevaluationoftargetparameters,reducemanpowerandmaterialresources,andimproveworkefficiency.Keywords:machine learn
10、ing;neural network;acoustic design;parameter prediction;reverberation time;speechintelligibility0 引言声学作为一门广泛的学科,涵盖了听觉与声音的生理、心理、物理和工程等方面,而厅堂建筑是目前承载交流功能的主要建筑形式之一,其声环境质量不仅直接影响人与人之间沟通质量,同时对人们的身心健康发展也起到重要作用。目前,针对建筑声学客观音质参数的预测,主要采用公式法预测1(赛宾公式、伊琳-努特生公式、Arau-Puchades 公式等)和计算机辅助预测两种。但是,传统的公式法预测和计算机辅助预测在实际工作中
11、均存在一定局限性,例如公式法预测的使用虽然简单方便,但是因扩散均匀性、各向同向性、声场漫反射性等不同限制条件,其准确性和适用性已不能满足当下设计和工程的实际需求;而计算机辅助预测方法(如几何声学法、射线跟踪法、有限元法等)虽然能够提供较高的预测准确性和适用性,但是其也存在平台采购成本高、专业技术要求高、建模复杂度高、成果周期长等诸多现实问题。因此,目前需要采取一种成本较低、效率较高、精度较高的预测方法来处理相关工作。近年来,澳大利亚的 Joseph 等人使用神经网络技术对混响时间进行了研究2;马来西亚的 Fathin等人、日本的 Toru 等人使用神经网络技术对教室内的混响时间进行了研究3-4
12、;伊朗的 Mohsen 等人对工业车间的噪声预测进行了研究5;英国的Kendrick 等人对音乐信号中的混响时间参数进行了研究6。由此可见,随着机器学习的新进展7-11,使得采用神经网络处理声学客观音质参数预测任务成为可能。1 原理概述自从抽象的 MP 单层感知机神经元模型发表以来12,神经网络逐渐发展成为一种较为成熟的机器学习算法。其本质是通过参数与激活函数来拟合特征与目标之间的真实函数关系,以此来得到输入变量和输出变量之间的复杂关系。理论证明,两层神经网络可以无限逼近任意连续函数,面对复杂的非线性分类任务,两层神经网络可以得到令人满意的结果13。Rumelhar 和 Hinton 等人提出
13、了一种按照误差逆向传播算法训练的反向传播(Backpropagation)多层前馈神经网络14,解决了两层神经网络所需要的复杂计算量问题15。图 1 是一个神经网络结构的示例。Yx1f1f2f3fmx2xnyInput layerHidden layerOutputlayerOutput图 1 神经网络结构示意图因为神经网络具有良好的预测精度和高效的学习能力,可以处理包括自然语言处理 NLP、计算机视觉 CV、数据拟合 FF 等工作,已广泛应用于金融、医学、工业、新一代网络技术、大数据、软件与信息服务等领域。2 研究方案及数据处理本研究采用以下技术方案。首先对目标建筑的室内特征参数和目标音质参
14、数进行提取,建立起室内特征参数与目标音质参数之间的关系模型;其次,通过声学仿真平台对关系模型进行仿真模拟,建立音质参数的数值矩阵训练样本数据库;然后搭建训练神经网络对该模型进行数据拟合训练,以实现对目标参数的预测;最后对训练结果的均方误差、误差分布及回归系数进行评估,确定该神经网络在室内音质参数预测中的效果。2.1 数据收集和预处理因建筑的形式和风格具有极大的开放性,为便于研究顺利进行,本文选取较为常规的鞋盒型厅堂168中国测试2024年2月建筑进行数据收集,旨在能够覆盖教室、会议室、多功能厅等生活中接触面较广的建筑形式。建筑尺度选择覆盖范围为长度 8.019.9m,宽度 7.014.9m,高
15、度 2.84.4m。所选建筑尺度能够覆盖大部分工作生活中的常见声环境。在控制背景噪声的情况下,建筑室内与混响时间、语言清晰度高度相关的特征主要是各界面的吸声系数,因此对目标建筑的室内特征参数主要针对各界面进行提取,选择了建筑的长、宽、高几何尺寸,以及前后墙、左右墙、天花面、地面、门廊、窗户以及其他等室内界面的吸声量,共计 10 项建筑参数作为典型特征值。特征值主要考察各界面的吸声系数,具体的声学参数采用声学手册中典型材料16参数进行赋值。建筑参数典型特征值统计表如表 1 所示。表 1 建筑参数典型特征值统计表(以 500 Hz 混响时间模型为例)项目最大值最小值平均值标准差长/m19.908.
16、0014.034.12宽/m14.907.0010.882.51高/m4.402.803.680.56A前后墙/m283.900.3017.2421.23A左右墙/m2122.400.3022.4729.01A天花面/m2158.600.6024.0332.28A地面/m289.000.6013.9116.48A门廊/m24.600.000.770.77A窗户/m227.800.102.573.57A其他/m26.700.101.101.06数据收集采用 OdeonCombined 模拟平台进行。参数选择 500Hz 混响时间、1000Hz 混响时间和语言传输指数 STI 等 3 项具有代表性
17、的指标作为目标参数。数据预处理中,为了确定总体训练规模,建立了 11 组共计 800 个计算机仿真模型,每组模型均根据厅堂建筑预设的实际情况进行环境参数设定:温度设定 20、本底噪声设定 NR25、相对湿度设定 50%、声源点设定、听音点设定、典型材料设定等。这 800 个建筑模型的数据集,其变量值主要是特征参数数值的不同,获得的方法主要是改变建筑的几何尺寸和室内陈设的布置,通过不同特征的面积乘以对应频率吸声系数得到不同频率下的吸声量。基于此,针对 3 项目标参数分别采得供神经网络训练的样本数据 800 个,共计 2400 个。为了获得较可靠的混响时间和语言传输指数预测结果,本研究还对训练数据
18、进行了统计分析,排除了干扰系数较大的极值和奇异值,以尽量减少异常值对结果的影响。2.2 神经网络模型数据收集和预处理完成后,对于每个目标参数的训练模型,本文评估了不同的网络结构和参数设置,确定了比较合适的模型。2.2.1网络结构与算法神经网络通常由一个输入层、一个或多个隐藏层和一个输出层组成。本研究的输入层由与房间相关的上述 10 项特征参数组成;输出层由 1 个节点组成,用于预测某项特定目标参数。输入层接收训练特征数值矩阵 A8001,输出层产生对目标参数的预测数值矩阵 B11。研究通过 Matlab 平台,采用基于机器学习的神经网络对每组目标参数的数据集进行拟合训练。因为数据量不大,所以训
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 神经网络 声学 参数 预测 方法 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。