FastProtector...隐私保护的高效联邦学习方法_林莉.pdf
《FastProtector...隐私保护的高效联邦学习方法_林莉.pdf》由会员分享,可在线阅读,更多相关《FastProtector...隐私保护的高效联邦学习方法_林莉.pdf(10页珍藏版)》请在咨信网上搜索。
1、FastProtector:一种支持梯度隐私保护的高效联邦学习方法林 莉*张笑盈 沈 薇 王万祥(北京工业大学信息学部计算机学院 北京 100124)(可信计算北京市重点实验室 北京 100124)摘 要:联邦学习存在来自梯度的参与方隐私泄露,现有基于同态加密的梯度保护方案产生较大时间开销且潜在参与方与聚合服务器合谋导致梯度外泄的风险,为此,该文提出一种新的联邦学习方法FastProtector,在采用同态加密保护参与方梯度时引入符号随机梯度下降(SignSGD)思想,利用梯度中正负的多数决定聚合结果也能使模型收敛的特性,量化梯度并改进梯度更新机制,降低梯度加密的开销;同时给出一种加性秘密共享
2、方案保护梯度密文以抵抗恶意聚合服务器和参与方之间共谋攻击;在MNIST和CIFAR-10数据集上进行了实验,结果表明所提方法在降低80%左右加解密总时间的同时仍可保证较高的模型准确率。关键词:低加密开销;共谋攻击;联邦学习;梯度保护中图分类号:TN918;TP181文献标识码:A文章编号:1009-5896(2023)04-1356-10DOI:10.11999/JEIT220161FastProtector:An Efficient Federated Learning MethodSupporting Gradient Privacy ProtectionLIN Li ZHANG Xiao
3、ying SHEN Wei WANG Wanxiang(College of Computer Science,Faculty of Information Technology,Beijing University of Technology,Beijing 100124,China)(Beijing Key Laboratory of Trusted Computing,Beijing 100124,China)Abstract:Federated learning has the problem of privacy leakage from the gradient.The exist
4、ing gradientprotection schemes based on homomorphic encryption incur a large time cost and the risk of gradient leakagecaused by potential collusion between participants and aggregation server.A new federated learning methodcalled FastProtector is proposed,where the idea of SignSGD is introduced whe
5、n homomorphic encryption isused to protect participant gradients.Exploiting the feature that the majority of positive and negativegradients determine the aggregation result to make the model convergent,the gradient is quantified and thegradient updating mechanism is improved,which can reduce the ove
6、rhead of gradient encryption.Meanwhile,an additive secret sharing scheme is proposed to protect the gradient ciphertext against collusion attacksbetween malicious aggregation servers and participants.Experiments on MNIST and CIFAR-10 dataset showthat the proposed method can reduce the total encrypti
7、on and decryption time by about 80%while ensuringhigh model accuracy.Key words:Low encryption overhead;Collusion attacks;Federated learning;Gradient protection 1 引言当前数据融合需求迫切,机器学习技术在智慧医疗、智慧金融和智慧交通等领域得到前所未有的应用。然而,由于机器学习训练过程需要融合不同用户的本地数据,数据共享过程存在隐私泄露的风险。例如,医疗数据往往包含患者隐私,当多家医院共享数据时经常导致患者的隐私泄露13。为此,欧盟在20
8、18年实施了通用数据保护条例(General Data Protection Regulation,GDPR)4;2020年加利福尼亚州消费者隐私法案(Califor-nia Consumer Protection Act,CCPA)在美国加利福尼亚州正式生效5;我国在2017年实施网络安 收稿日期:2022-02-22;改回日期:2022-11-16;网络出版:2022-11-21*通信作者:林莉linli_基金项目:国家自然科学基金(61502017),北京市教委科技计划一般项目(KM201710005024)Foundation Items:The National Natural Sc
9、ience Foundation ofChina(61502017),The Scientific Research Common Program ofBeijing Municipal Commission of Education(KM201710005024)第45卷第4期电 子 与 信 息 学 报Vol.45No.42023年4月Journal of Electronics&Information TechnologyApr.2023全法6,2021年发布了数据安全法7和个人信息保护法8。随着这些法律法规的发布实施,不同组织间共享数据变得越来越困难,数据孤岛问题日益严重。谷歌在2016
10、年提出联邦学习解决数据孤岛问题9。联邦学习是一种分布式机器学习框架,多个参与方在本地训练,通过共享如梯度实现联合建模。尽管该方法可保证训练数据不出本地,但攻击者仍可通过这些共享的梯度反推出原始训练数据的内容10,11,这会导致训练数据的隐私泄露,因而保护梯度尤为重要。现有工作提出了基于同态加密的梯度保护方法,例如,Zhou等人12利用Paillier加密方法在雾环境下保护参与方的梯度。Phong等人13提出了一种基于Paillier同态加密的联邦学习框架。Zhang等人14通过中国剩余定理降低了梯度加密开销,但由于中国剩余定理计算时要求被处理的数值不能过大,因此梯度取整时损失更多,会降低模型的
11、准确率。Lohana等人15利用Paillier同态加密保护上传的梯度,并通过只上传重要梯度来提高学习效率。上述方法虽安全性较高,但当需要对大量模型参数进行加密时开销往往较大,无法适应自动驾驶等实时性要求高的应用,故大部分现有方案都采用半同态加密16。此外,在现有方案中,参与方往往使用相同的一对加解密密钥,无法抵抗参与方与聚合服务器之间的共谋攻击12,董业等人17结合秘密共享和Top-k梯度选择算法去实现在防止共谋攻击的同时验证服务端聚合结果的有效性,并验证该方法可提升联邦学习的通信效率,然而该方案中各方之间传输的是明文梯度共享,会带来隐私泄露风险18;夏家骏等人19针对纵向联邦学习场景提出了
12、加性秘密共享方案,通过把明文计算转化成秘密份额计算以实现对参与方本地数据的隐私保护,但引入通信开销较大。Hao等人20利用差分隐私技术抵抗聚合服务器和参与方之间的共谋攻击,然而差分隐私技术会降低模型准确率21。Zhou等人12提出利用盲化技术抵抗聚合服务器和雾节点之间的共谋攻击,但前提是假设存在一个可信的盲化参数服务器来分发盲化参数。因此,如何提高加解密效率并能有效防止共谋攻击是联邦学习梯度隐私保护亟待解决的重要问题。为此,本文提出一种支持梯度隐私保护的高效联邦学习方法FastProtector,主要贡献如下:(1)基于SignSGD思想22对梯度Paillier同态加密过程进行了简化,利用梯
13、度中正负的多数决定聚合结果也能使模型收敛的特性,量化梯度并改进梯度更新机制,在增强梯度隐私保护的同时有效降低梯度加密的开销。(2)给出加性秘密共享技术,可抵抗梯度密文保护中聚合服务器和参与方之间潜在的共谋攻击。(3)在MNIST和CIFAR-10两个数据集上进行了实验,结果表明本文方法可降低80%左右的加解密总时间,并且能确在降低加解密开销的同时保持良好的训练效果。2 系统模型本文主要针对多聚合服务器多参与方的复杂联邦学习应用17,场景如图1所示,包括特定聚合服务器、其他聚合服务器和参与方3类实体,其中特定聚合服务器和其他聚合服务器计算能力较强,负责生成密钥对,聚合参与方上传的梯度密文,并将生
14、成的密钥对和聚合的梯度密文发给各个参与方。参与方在本地训练模型,在每轮训练中计算梯度和共享并对梯度共享进行加密,把加密的共享上传到聚合服务器,等待密钥对和聚合结果的下发。这里特别指出,与文献17采用共享明文聚合不同,本文采用共享密文聚合,即通过加密梯度共享保证参与方之间、参与方与聚合服务器之间、聚合服务器之间只进行密文传输和聚合,增强对梯度共享的隐私保护。同时,为降低参与方的计算开销,本文选择一个计算能力较强的特定聚合服务器来完成该任务。本文假设所有的聚合服务器和参与方都是诚实且好奇的,即会遵循协议执行过程但也会尝试根据收到的结果推断其他参与方的隐私信息。同时,本文也考虑各种潜在的共谋攻击,包
15、括聚合服务器之间,参与方之间以及聚合服务器和参与方之间的共谋攻击。基于上述假设,本文目标是提出一种既能增强对梯度共享的隐私保护,又能抵抗多种共谋攻击的高效联邦学习方法。3 方法设计本节详细介绍提出FastProtector方法的方法架构、工作流程以及流程中各阶段涉及的核心算法。图 1 联邦学习场景第4期林 莉等:FastProtector:一种支持梯度隐私保护的高效联邦学习方法13573.1 工作原理FastProtector的实现需要在聚合服务器和参与方端部署不同的功能模块,如图2所示,特定聚合服务器上部署聚合服务器选择、密钥生成和梯度密文聚合模块;其他聚合服务器上部署密钥生成和共享加和模块
16、;参与方端部署共享加密、基于SignSGD的共享生成、聚合梯度密文解密以及模型训练和测试模块。如图3所示,本文提出方法分为初始化阶段、训练阶段、聚合阶段和更新阶段4个阶段。(1)初始化阶段。首先参与方对特定聚合服务器发起请求,特定聚合服务器收到参与方请求后,会从所有聚合服务器中随机选择一个聚合服务器,基于采用Paillier加密算法生成密钥对,被选择的聚合服务器负责把密钥对分发给各个参与方,同时各个参与方在本地初始化训练所需参数,准备模型训练。(2)训练阶段。各个参与方在本地进行模型训练,然后基于SignSGD的思想,确定正负梯度量化的值,并对正负梯度量化结果值实施秘密共享算法将其分为多份共享
17、,共享的份数与聚合服务器的个数相同,最后对生成的共享进行加密,并根据原始梯度中的正负将共享密文替换到对应位置,生成梯度共享密文。(3)聚合阶段。各个参与方将梯度共享密文依次上传给不同的聚合服务器,各个聚合服务器将收到的共享密文进行乘法运算,得到共享加和的结果,然后将结果统一发给特定聚合服务器,特定聚合服务器将收到的共享加和结果进行聚合,得到聚合梯度的密文,再下发给各个参与方。(4)更新阶段。各个参与方在本地对聚合梯度密文进行解密,并用解密后的聚合梯度更新模型,同时,准备下一轮模型训练,如果已达到预定的训练轮数,则训练终止。下面将对各阶段核心算法进行详细介绍,为便于理解,先给出统一符号说明,具体
18、如表1所示。3.2 初始化阶段该阶段主要由各个参与方完成训练所需参数的初始化,被特定聚合服务器选择的聚合服务器完成密钥对的生成和分发,初始化的参数和生成的密钥对后续用于训练阶段。不失一般性,设参与方的个数为n(n3),聚合服务器的个数为m(m3)。M训练所需参数包括训练模型,学习率 和训练轮数epoch。密钥对的生成过程包含以下几个步骤:图 2 FastProtector方法架构 图 3 FastProtector的工作流程1358电 子 与 信 息 学 报第 45 卷gcd(p q,(p 1)(q 1)=1(1)初始化满足的两个大素数p和q;n=p q=lcm(p 1,q 1)(2)计算和;
19、L(x)=(x 1)/n(3)定义;=(L(gmod n2)1mod n(4)取使存在的正整数 g,并保证g 0(14)if Gi1num=pgsharepk0,Gi2num=pgsharepk1,.,Gimnum=pgsharepkm 1(15);(16)elseGi1num=ngsharepk0,Gi2num=ngsharepk1,.,Gimnum=ngsharepkm 1(17);(18)end if(19)end forGi1pk=Gi1,Gi2pk=Gi2,.,Gimpk=Gim(20);Gi1pk,Gi2pk,.,Gimpk(21)Return;(22)end for算法2 解密和
20、更新GaggpkM输入:聚合梯度密文,公钥pk,私钥sk,模型,学习率,训练轮数epoch;M输出:更新后的模型。(1)for ep=1 to epochGagg=Decrypt(pk,sk,Gaggpk)(2);/*聚合梯度密文的解密*/Gagg=torch.tensor(Gagg)Gagg(3);/*将转换为张量类型*/M=M Gagg/n(4);/*更新模型*/M(5)Return;(6)end for1360电 子 与 信 息 学 报第 45 卷GaggpkGaggGagg=G1+G2+.+GnGaggG1,G2,.,GnGii=1,2,.,n合服务器也负责生成密钥对pk和sk时,即可
21、通过对解密得到,而根据定理1有成立,但n3,因此无法通过得到的具体值,即无法得到参与方i的完整的梯度,。Gagg=G1+G2+.+GnGaggpkGiGagg=Gagg Gi=G1+.+Gi1+Gi+1+.+GnGaggGaggG1,G2,.,Gn根据定理1,有成立。单个参与方能够获得聚合梯度密文,并拥有pk,sk以及他们自己的梯度,根据上述条件,令,由于n3,因此是至少两个数的和,故无法通过得到的具体值,即无法得到任意参与方的完整梯度。综上,任意单个聚合服务器(包括负责生成密钥对的聚合服务器和特定聚合服务器)或任意单个参与方都无法得到其他任意参与方的完整梯度。证毕Gi1pk,Gi2pk,.,
22、Gimpki=1,2,.,nm 1n 2Gii=1,2,.,n定理3已知参与方i的梯度共享密文为,那 么 当个聚合服务器(包括负责生成密钥对的聚合服务器和特定聚合服务器)和个参与方共谋时,共谋者均无法得到任意未共谋参与方的完整梯度,。m 1n 2m 1G1aggpk,G2aggpk,.,Gm1aggpkGaggpkn 2G1m,G2m,.,Gn2mG1agg,G2agg,.,Gm1aggGaggGmagg=Gagg(G1agg+G2agg+.+Gm1agg)GmaggGmagg=G1m+G2m+.+GnmGn1m+Gnm=Gmagg(G1m+G2m+.+Gn2m)Gn1mGnmGn1m证明当个
23、聚合服务器(包括负责生成密钥对的聚合服务器和特定聚合服务器)和个在线参与方共谋时,参与共谋的个聚合服务器拥有,pk,sk以及,参 与 共 谋 的个 参 与 方 拥 有,因此他们可以通过解密获得和,接着,可以通过获得,而根据定理1可知,因此他们可以通过获得与的和,然而,根据与GnmGn1mGnmn 1Gn1=Gn11+Gn12+.+Gn1mGn=Gn1+Gn2+.+GnmGn1mGnmGn1Gnm 1n 2的和并不能推出和中任意一个的具体值,而第个参与方的梯度为,第n个参与方的梯度为,由于他们无法获得和的值,也就无法计算出和的值,即无法获得任意未共谋参与方完整的梯度值。因此,当个聚合服务器(包括
24、负责生成密钥对的聚合服务器和特定聚合服务器)和个参与方共谋时,他们无法获得任意未共谋参与方完整的梯度值。证毕 5 实验评估本节通过实验对提出方法进行评估,说明实验环境,给出模型准确率和加解密开销的实验结果及分析。5.1 实验环境本文在Intel Core i7-9700F,3.0 GHz CPU,32 GByte内存的机器上模拟3个聚合服务器和5个参与方,其中一个聚合服务器为特定聚合服务器。用PyTorch作为联邦学习的底层实现库,用Python3实现了联邦学习,采用多线程Socket实现联邦学习的通信。不失一般性,在经典数据集MNIST和CIFAR-1013上进行了实验,其中MNIST数据集
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- FastProtector 隐私 保护 高效 联邦 学习方法 林莉
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。