联邦学习中的隐私保护技术研究.pdf
《联邦学习中的隐私保护技术研究.pdf》由会员分享,可在线阅读,更多相关《联邦学习中的隐私保护技术研究.pdf(8页珍藏版)》请在咨信网上搜索。
1、信息安全研究第10 卷第3期2 0 2 4年3月Journalot information Security ResearchVol.10No.3Mar.2024DOl:10.12379/j.issn.2096-1057.2024.03.01联邦学习中的隐私保护技术研究刘晓迁许飞马卓袁明1,钱汉伟1(江苏警官学院计算机信息与网络安全系2(南京邮电大学计算机学院完南京2 10 0 2 3)3(南京大学软件学院南京2 10 0 2 3)()Research on Privacy Protection Technology in Federated LearningLiu Xiaoqian,Xu F
2、eil,Ma Zhuo,Yuan Mingl-2,and Qian Hanweil.31(Department of Com puter Information and Cyber Security,Jiangsu Police Institute,Nanjing 210031)2(School of Computer Science,Nanjing University of Posts and Telecommunications,Nanjing 210023)3(Software Institute,Nanjing University,Nanjing 210023)Abstract I
3、n federated learning,multiple models are trained through parameter coordinationwithout sharing raw data.However,the extensive parameter exchange in this process renders themodel vulnerable to threats not only from external users but also from internal participants.Therefore,research on privacy prote
4、ction techniques in federated learning is crucial.This paperintroduces the current research status on privacy protection in federated learning.It classifies thesecurity threats of federated learning into external attacks and internal attacks.Based on thisclassification,it summarizes external attack
5、techniques such as model inversion attacks,externalreconstruction attacks,and external inference attacks,as well as internal attack techniques such aspoisoning attacks,internal reconstruction attacks,and internal inference attacks.From theperspective of attack and defense correspondence,this paper s
6、ummarizes data perturbationtechniques such as central differential privacy,local differential privacy,and distributed differentialprivacy,as well as process encryption techniques such as homomorphic encryption,secret sharing,and trusted execution environment.Finally,the paper analyzes the difficulti
7、es of federated learningprivacy protection technology and identifies the key directions for its improvement.Key words federated learning;privacy attack;differential privacy;homomorphic encryption;privacy protection摘要联邦学习中多个模型在不共享原始数据的情况下通过参数协调进行训练.大量的参数交换使模型不仅容易受到外部使用者的威胁,还会遭到内部参与方的攻击,因此联邦学习中的隐私保护技术
8、研究至关重要.介绍了联邦学习中的隐私保护研究现状;将联邦学习的安全威胁分为外部攻击收稿日期:2 0 2 4-0 1-14基金项目:国家自然科学基金项目(6 2 2 0 2 2 0 9);2 0 2 3年江苏高校“青蓝工程”优秀青年骨干教师项目;江苏省高等教育教改研究项目(2 0 2 3JSJG 36 4);“十四五江苏省重点学科“网络空间安全 建设项目;江苏省高校哲学社会科学研究项目(2 0 2 3SJYB0468)引用格式:刘晓迁,许飞,马卓,等.联邦学习中的隐私保护技术研究.信息安全研究,2 0 2 4,10(3):194-2 0 1194南京210031)学术论文.ResearchPap
9、ers和内部攻击,并以此分类为基础归纳总结了模型反演攻击、外部重建攻击、外部推断攻击等外部攻击技术和投毒攻击、内部重建攻击、内部推断攻击等内部攻击技术.从攻防对应的角度,归纳总结了中心化差分隐私、本地化差分隐私和分布式差分隐私等数据扰动技术和同态加密、秘密共享和可信执行环境等过程加密技术.最后,分析了联邦学习隐私保护技术的难点,指出了联邦学习隐私保护技术提升的关键方向。关键词联邦学习;隐私攻击;差分隐私;同态加密;隐私保护中图法分类号TP309联邦学习的概念最早由谷歌提出,用于解决安卓设备的本地模型更新问题.在联邦学习中,多个数据持有方将数据保留在本地,仅在协同训练过程中交换训练参数 11.M
10、cMahan等人 2 的研究证明,分布式训练的联邦学习模型能够取得与集中式学习相近或更好的结果.联邦学习基于分散计算范式收集与融合海量数据进行模型训练,避免直接将数据暴露给不确定的第三方,对用户数据隐私起到很大的保护作用.然而,联邦学习模型本身存在一定的脆弱性,同时恶意攻击者普遍存在,因此,联邦学习中存在大量的隐私泄露风险 3.近年来,联邦学习中的隐私保护技术研究取得了一定的成果.目前,隐私保护研究主要以经典的加密或扰动技术为基础,例如以差分隐私(differential privacy)为代表的数据扰动法 4、以同态加密(homomorphic encryption)和安全多方计算(secu
11、re multi-party computation)为代表的数据加密法等 5-6 .隐私保护的应用场景从最初的关系型数据发布逐渐发展到较为复杂的社交网络、电子商务等领域 7-9.Mothukuri等人1o1提供了联邦学习安全攻击和隐私攻击方面的全面研究,并针对2 类攻击总结了对应的保护措施.但文中提到的隐私威胁较少,更专注于安全攻击的研究,与本文侧重点不同.周俊等人 11从联邦学习模型训练的主体出发,将最新的保护技术按参与方和服务器的关系进行划分.与之相比,目前的研究更多地是基于隐私保护手段的不同,将联邦学习的隐私保护技术进行划分 12-13.在汤凌韬等人 14-15 的研究中,依据作用阶段
12、、防护策略和技术手段的不同,将联邦学习中的隐私保护技术分为6 大类,主要包括安全聚合机制、安全多方机制、同态加密机制、可信硬件机制、安全预测机制、模型泛化机制.本文从联邦学习的安全现状及现有隐私保护技术研究成果人手,通过对联邦学习中的隐私泄露原因进行分析,揭示了易受攻击的关键环节以及潜在的隐私泄露风险.同时,对国内外联邦学习隐私保护研究的现状进行总结,从攻击与防御的角度归纳了联邦学习所面临的各种攻击方式及对应防御方法.本文还探索了未来可能的发展方向,为研究者提供了有益的参考,以有效保护用户的隐私安全。1联邦学习中的隐私保护研究现状在联邦学习中,共有n个参与方(Fi,F2,,F,),每个参与方F
13、,都持有各自的本地数据集(D1,D2,,D,),各数据持有方不共享本地数据D,而仅共享运算参数,通过多方协作最终获得一个全局联邦学习模型 16.作为对比,传统集中式机器学习模型则是将各用户端的数据收集起来形成一个大数据集进行训练.令MFED表示联邦学习模型的精度、MsUM为集中式机器学习模型的精度.称联邦学习模型具有的精度损失,如果存在非负实数。,使得以下不等式成立:IMFED-MsUM|.ResearchPapers的差距最小化.Zhao等人 2 91 对DLG算法进行改进,提出了iDLG(improved DLG)算法,基于交叉熵损失计算输出标签概率与前一层梯度数值之间的关系,进而判别标签
14、的真实值。根据攻击的对象不同,内部推断攻击可分为属性推断攻击和成员推断攻击.属性推断攻击是指敌手通过分析联邦学习模型训练过程中的周期性更新,推断目标终端的训练集中是否存在某敏感属性.在Melis等人 30 1的工作中,假设敌手是中央服务器,攻击者借助辅助集和全局参数计算生成包含目标属性和不包含目标属性的梯度更新向量,借此训练属性分类器.Zhang等人 31设计了黑盒状态下的推断攻击,攻击者在不参与训练的情况下,通过已训练好的模型也可以推断出目标样本中的敏感属性,进而造成隐私泄露.成员推断攻击是一种推断训练数据集细节的攻击,通过检查某数据是否存在于训练集上来窃取信息.Nasr等人 32 设计了白
15、盒模式下的成员推断攻击,其中半诚实参与方主要观察成员与非成员在模型上的梯度差异.而恶意参与方则能够依据梯度变化推断出该数据是否为成员数据.2耳联邦学习中的隐私保护技术隐私保护技术是防止敏感信息泄露的核心技术,能为隐私数据提供严格的量化保护.随着研究的不断深人,隐私保护手段也逐渐多样化,为了更好地和前文的攻击策略进行对应,本文将隐私保护手段分为2 类,即数据扰动和过程加密.其中,数据扰动保护的是隐私数据本身,在一定程度上能够防御内部攻击者对数据的窃取和推断;而过程加密则是对数据传输的通信信道进行保护,使得外部攻击者不易识别敏感信息。2.1数据扰动差分隐私是当前通过数据扰动实现隐私保护的有效手段
16、331.用户原本易识别的属性记录经过扰动会丧失独特性,从而隐藏在大量的记录中不被发现.根据差分隐私在联邦学习框架中的使用位置,差分隐私可以划分为中心化差分隐私、本地化差分隐私和分布式差分隐私.2.1.1中心化差分隐私中心化差分隐私借助可信第三方,通过集中式数据存储与扰动实现隐私保护 34,其架构如图2所示:用户1客户端数据采集数据采集原始数据数据收集者统计数据查询查询图2 中心化差分隐私在联邦学习的客户端-服务器架构中,通过添加拉普拉斯噪声、高斯噪声或指数机制等方式隐藏数据节点.中心化差分隐私方案能够实现用户级隐私,也就是说不会泄露参与联邦学习模型训练的用户.然而,这种机制要求必须存在可信的中
17、央服务器,较为理想化.2.1.2本地化差分隐私当不存在可信第三方或中央服务器时,隐私保护的训练过程完全在客户端本地实现,即本地化差分隐私,其架构如图3所示 34-35.本地化差分隐私没有中心服务器的参与,用户掌控自身数据的使用与发布,利于实现去中心化联邦学习.但本地化差分隐私保护中需求的样本量极其庞大,为了提高训练准确度,往往需要收集海量样本数据才能实现.此外,维灾难导致本地化差分隐用户1用户2数据采集数据采集客户端本地化差分隐私处理用户1用户2扰动数据扰动数据数据收集者统计数据查询用户2扰动数据计数均值查询扰动数据计数均值查询查询图3本地化差分隐私网址http:/1197用户n数据采集中心化
18、差分隐私处理Top-k查询用户数据采集用户n扰动数据Top-k查询信息安全研究第10 卷第3期2 0 2 4年3月Journalotinformatien Security ResearchVol.10No.3Mar.2024私很难平衡模型可用性、高效性与隐私性.2.1.35分布式差分隐私分布式差分隐私设置若干个可信中间节点,并预先对部分用户数据进行聚合和扰动,传输给服务器的是加密处理的脱敏数据.王雷霞等人 36 提出一种安全混洗框架,该框架将加密运算尽量剥离开客户端,保证较少的本地资源消耗,转而设方法中心化差分隐私本地化差分隐私分布式差分隐私客户端和服务器端之间的可信任节点隐私保护技术单独使
19、用得很少,现在更多的是混合式方法.Truex等人 37 利用差分隐私和安全多方计算训练出可以抵御推理攻击的学习模型,在2 种隐私保护技术优势的叠加下联邦学习的隐私威胁大大降低。2.2过程加密过程加密主要针对外部攻击对通信信道进行保护.较为常用的过程加密技术包括同态加密、秘密共享和可信执行环境.2.2.1同同态加密同态加密是指针对加密后的密文数据进行运算,该计算结果和原始数据经过特定计算后得到的结果一致 38 .同态加密过程如图4所示:计算密文数据密文结果处理同态加密原始数据图4同态加密机制同态加密不同于一般加密方案,一般的加密方案注重数据存储安全,密文结果需要妥善保管,以免导致解密失败.而同态
20、加密的侧重点在于数据处理安全,它确保原始数据机密信息不被泄露,同时又能保证密文运算结果的有效性。2.2.2秘密共享秘密共享是一种秘密分割存储技术,是安全1981计客户端与服务器端之间的匿名化混洗步骤,保证基于少量噪声即实现较高级别的隐私保护。分布式差分隐私解决方案兼具了本地化与中心化差分隐私的优势,既不需要可信服务器,也无需在本地添加过多噪声.但分布式差分隐私本身也有缺陷,即通信开销高且需要可信节点.以上3种方法优缺点对比如表1所示:表1差分隐私类别比较扰动位置特点服务器端兼顾隐私性和可用性,具有较高准确性客户端无须信任关系,能完全实现去中心化隐私性可用性难以平衡,影响模型性能低扰动高隐私,无
21、须可信服务器多方计算中的重要机制,其目的是抵御多方合谋与人侵.秘密共享的核心思想是通过特定预算,将秘密拆分,并将其分发给各参与方.常见的秘密分享方案有Shamir方案和Blakley方案等 39-40 1,最常使用的是门限秘密共享。将秘密S分成n个子秘密并分配给n个参与方,只有集齐k个及以上子秘密才能还原出原始秘密S.Bonawitz等人 411基于门限秘密共享设计了一种安全聚合方案,该方案在诚实且好奇的服务器背景下保证各参与方的数据安全.同时,计算量和通信开销也不高,特别适合联邦学习中的协同训练,但是该方案无法抵御共谋攻击.对比以上2 种手段,同态加密运算成本高,秘密共享在一定程度上可以弥补
22、上述不足,但秘密共享需要进行多次通信,加剧了联邦学习的通信负担。同态解密2.2.3可信执行环境计算结果1可信执行环境(trusted execution environ-ment,T EE)是一种提供可信执行环境的安全技计算处理计算结果2缺陷需要可信服务器为前提通信开销高,需要可信节点术,该环境具备完整性、保密性和可验证性 42 ,具有计算和存储功能.TEE的使用场景有很多,其中最常见的是数字版权管理、金融支付、移动支付等方面.在联邦学习中,TEE技术被广泛应用于保护用户数据隐私,但是TEE对底层硬件设施的依赖性较高,更新升级时都需要同步到软硬件,不同厂商的TEE技术各异,行业标准也不一致,很
23、难统一管理。表2 中,本文对比了以上列举的几种隐私保护手段.差分隐私计算复杂度低,通过扰动去除记学术论文.ResearchPapers合边缘计算和群体学习(swarmlearning)方法,实现了隐私保护下不同医疗机构之间数据的整合.该架构能够保证网络中成员的安全、透明和公平加人,不再需要中心服务器.显然,去中心化架构和高级别安全保障进一步保证了数据的隐私安全。参考文献1 Li T,Sahu A K,Talwalkar A,et al.Federated learning:录识别性,因此可以针对性地防御成员推断攻击.安全多方计算除了数据传输,还有大量的计算和操作需要在参与方之间协同完成,因此有
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 联邦 学习 中的 隐私 保护 技术研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。