基于异构特征的强化联邦学习模型融合方法.pdf
《基于异构特征的强化联邦学习模型融合方法.pdf》由会员分享,可在线阅读,更多相关《基于异构特征的强化联邦学习模型融合方法.pdf(5页珍藏版)》请在咨信网上搜索。
1、2023 年第 10 期计算机与数字工程收稿日期:2023年4月3日,修回日期:2023年5月12日基金项目:国家自然科学基金项目(编号:62072469);国家重点研发计划(编号:2018YFE0116700);山东省自然科学基金项目(编号:ZR2019MF049);中央高校基本科研业务费专项资金(编号:2015020031);西海岸人工智能技术创新中心建设专项(编号:2019-1-5,2019-1-6);上海可信工业控制平台开放项目(编号:TICPSH202003015-ZC)资助。作者简介:禹发,男,硕士研究生,研究方向:深度学习,联邦学习,强化学习。赵潇楚,女,硕士研究生,研究方向:先
2、进制造与战略管理。谷牧,男,硕士研究生,高级工程师,研究方向:智能制造,云制造。张元杰,男,硕士研究生,研究方向:深度学习。1引言AlphaGo1在围棋上接连战胜人类顶尖选手李世石与柯洁,让人们逐渐意识到了人工智能(AI)所拥有的巨大能量,期待将其应用到各行各业中来。当AI真正要落地到各个行业之中时,效果往往差强人意,究其原因,最重要的问题在于数据,大多数行业数据的数量和质量都无法满足 AI 技术的需基于异构特征的强化联邦学习模型融合方法禹发1赵潇楚2谷牧3张元杰4(1.中国石油大学(华东)计算机科学与技术学院青岛266580)(2.中德智能技术研究院青岛266071)(3.航天云网科技发展有
3、限责任公司北京100039)(4.青岛文达通科技股份有限公司青岛266555)摘要在联邦网络中,各个设备间数据的数据呈现Non-IID(Non-Independent and Identically Distributed,非独立同分布),同时设备之间的算力状况也不同,这些异构特征会导致各个节点设备学习的模型质量好坏不一,传统联邦学习将各个节点训练结果等权重进行平均融合,使联邦学习效果不理想,针对联邦网络中这些异构特征,论文通过设计实验,将强化学习加入联邦学习的模型融合过程,代替传统的平均融合方法,为融合模型分配动态权值,提高了联邦学习在异构特征环境下的学习效果,增强了联邦学习的鲁棒性。关键词
4、异构特征;联邦学习;强化学习;模型融合;深度学习中图分类号TP309.2DOI:10.3969/j.issn.1672-9722.2023.10.017Fusion Method of Reinforced Federated Learning ModelBased on Heterogeneous FeaturesYU Fa1ZHAO Xiaochu2GU Mu3ZHANG Yuanjie4(1.College of Computer Science and Technology,China University of Petroleum(East China),Qingdao266580)
5、(2.Sino-German Institute of Intelligent Technologies,Qingdao266071)(3.Aerospace Cloud Network Technology Development Co.,Ltd.,Beijing100039)(4.Qingdao Windaka Technology Co.,Ltd.,Qingdao266555)AbstractIn a federated network,the data of each device is Non-IID(Non-Independent and Identically Distribut
6、ed),andthe computing power between devices is also different.These heterogeneous features will cause the quality of the model learned byeach node device to be good or bad.The traditional federated learning averages the weights of the training results of each node andmakes the federated learning effe
7、ct unsatisfactory.Aiming at these heterogeneous features in the federated network,this article designs experiments to add reinforcement learning to the federated learning.The model fusion process replaces the traditional averagefusion method,improves the learning effect of federated learning in a he
8、terogeneous feature environment,and enhances the robustness of federated learning.Key Wordsheterogeneous features,federated learning,reinforcement learning,model fusion,deep learningClass NumberTP309.2总第 408期2023 年第 10 期计算机与数字工程Computer&Digital EngineeringVol.51No.102305第 51 卷求,大多数行业中,数据都是以孤岛的形式存在,行
9、业中各个企业集团之间存在竞争壁垒,同时涉及到安全和隐私以及其他问题,几乎不可能形成一个统一的完备的行业数据集。随着整个互联网世界对于数据安全性和用户的数据隐私意识的增强,加剧了数据获取的困难性。数据的隔离和对数据隐私的重视正成为人工智能的下一个挑战,但联邦学习为我们带来了新的希望。它可以在保护本地数据的同时为多个企业建立统一的模型,从而使企业可以在以数据安全为前提的情况下共同取胜。联邦学习25的概念起初由谷歌提出,他们的主要想法是建立基于分布在多个设备上的数据集的机器学习模型,同时防止数据泄漏。最近的改进集中在克服统计挑战67和提高联邦学习的安全性89。还有一些研究努力使联邦学习更具个性化10
10、。联邦学习的出现使在数据保持不交换的情况下,进行大规模的协同模型训练。文献 11 中使用联邦学习来帮助训练入侵检测的模型,解决了单个机构数据集有限性而导致的模型泛化性不强的问题;文献 12 基于联邦学习设计了FRL框架,提高分部学习模型质量,同时在应用于北京PM2.5监控的实验中表现出了高于中心化训练三到五倍的效率。在边缘计算方面,文献13 将联邦学习应用于边缘设备的轻量级模型训练上,并在提高准确率的情况下,缩减了模型训练时间。Kwon14等将联邦学习应用于水下物联网设备的训练中,并加入了强化学习来对联邦学习中的通信传输进行优化,提高了通信链路的效率。但是,以上对于联邦学习的应用仍存在在需要解
11、决的问题。由于客户端设备硬件条件(CPU、内存)、网络连接(3G、4G、5G、WiFi)和电源(电池电量)的变化,联邦学习网络中每个设备的存储、计算能力和通信能力都有可能不同,加上联邦网络中设备上数据集数量与质量上的非对称性以及设备算力的差异,各节点训练的模型有好有坏同时联邦这些异构特征给联邦学习的建模、分析和评估都带来了很大挑战。传统的联邦学习算法,会将各个节点上传的模型按照等权重进行平均融合,如果某个节点模型质量差或者存在错误,会影响联邦学习全局的模型准确率,降低效率。本文提出一种基于异构特征的强化联邦学习模型融合方法,针对于联邦学习中异构特征问题,提高容错能力,保证学习效果,加入强化学习
12、,能够动态地通过联邦网络中个设备的状态信息,调整模型融合时的权值,代替传统的平均融合方法,更好地对全局模型进行更新。2基于异构特征的强化联邦学习模型融合方法为了解决联邦学习中的异构特征问题,需要针对不同的节点情况,在融合时自适应地调整各节点的权值,得到最优的权值进行融合。我们希望这个过程可以自主地进行,并能通过训练次数增加,不断学习,更准确地得到最优权值。而强化学习可以通过代理(Agent)与环境(Environment)不断交互,去学习得到最优结果,这恰恰可以应用于联邦学习的模型融合时,权值的选择。2.1联邦学习联邦学习(Federated Learning)从本质上讲,是一种分布式的机器学
13、习技术,或者称作一个机器学习框架。推动其产生的背景主要分为三个方面:1)在人工智能纷纷落地于应用后,逐渐暴露出来的问题是数据量的不足,一个高可用的人工智能应用通常需要依赖于大量高质量的数据集训练,现实生活中,极少有企业能满足这一点。2)全世界各个机构逐步加强了对数据的保护与监管,例如欧盟的 通用数据保护条例(GDPR)以及我国的 数据安全管理办法(征求意见稿),都对数据的流动做了限制。3)企业数据通常隐藏着企业机密且存在巨大潜在价值,不允许对外开放,这会导致数据孤岛问题。为了能够在合乎法律规范的情况下,使企业间在不泄露自己数据的情况下,共用数据集,共同训练模型,以达到提高模型准确率与泛化性的目
14、的,联邦学习应运而生。2.2强化学习强化学习1516是机器学习算法的一个分支,它受行为主义心理学启发而产生,同时与早期的控制论、心理学、神经科学和计算机科学都有关系。强化学习指的是仿照人类的学习方法而设计出的智能体,在动态环境中不断重复“动作-反馈-学习”的方式来进行学习,智能体是强化学习的动作实体。对于自动驾驶的汽车,环境是当前的路况;对于围棋,状态是当前的棋局。在每个时刻,智能体和环境有自己的状态,如汽车当前位置和速度,路面上的车辆和行人情况。智能体根据当前状态确禹发等:基于异构特征的强化联邦学习模型融合方法23062023 年第 10 期计算机与数字工程定一个动作,并执行该动作。之后它和
15、环境进入下一个状态,同时系统给它一个反馈值,对动作进行奖励或惩罚,以迫使智能体执行期望的动作。2.3强化联邦学习模型融合方法在传统联邦学习中,各节点上传模型,会在中心节点进行融合,生成全局模型,融合时采用平均融合的方法,即global=i=0NiN(1)然而由于各节点数据质量,算力和能量等异构性问题,各节点上传的模型质量参差不齐,如果某个节点数据集质量有错、质量差或者机器算力差会导致此节点上传模型对于全局模型的准确率提升没有帮助,甚至会有害,基于此,我们希望在联邦学习的过程中加入一种可以自适应的模型融合方法,能够根据历史的各节点模型信息,动态调节各节点模型的权重,提高有益节点的权重,降低权重甚
16、至舍弃有害节点。强化学习能通过智能体不断与环境交互,通过奖励机制不断学习,达到最大化奖励或者特定目标。于是,我们将强化学习加入到联邦学习的模型融合过程中来,使用强化学习来代替平均融合算法。本文以强化学习算法 DQN(Deep Q-learningNetwork)为基础,将联邦学习模型融合过程形式化为一个强化学习问题,进行求解。在一个联邦网络中有N个节点:状态(State):sS=s1s2s3s4sN,表示 N节点在模型融合时的准确率以及上一次的权值。动作(Action):aA=A1A2A3A4AN,表示为第i个节点分配的权值。奖励(Reward):R表示在状态s下执行动作a,得到的奖励值,在本
17、实验中为融合后模型准确率与上一次准确率的差值。策略(Policy):表示在状态 s 下选择一个动作,表示为a=(s)。价值函数(Value function):奖励只代表某一次动作的奖励值,而价值函数是从长期的角度看待动作的好坏,Q(sa)是策略在状态s下,采取动作a的长期期望收益,按照策略执行动作后的回报定义为Gt=t=0+tRat(stst+1)(2)其中01称为折扣因子,表示对未来奖励的看重性,当其为0时只看重现在。状态s的价值为V(s)=EGt|St=s(3)状态s下采取动作a的动作价值函数Q为Q(sa)=EGt|St=sAt=a(4)要得使得在状态s下动作a得到最好的效果,则应使最大
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 特征 强化 联邦 学习 模型 融合 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。