基于模型相似度的模型恶意代码夹带检测方法.pdf
《基于模型相似度的模型恶意代码夹带检测方法.pdf》由会员分享,可在线阅读,更多相关《基于模型相似度的模型恶意代码夹带检测方法.pdf(14页珍藏版)》请在咨信网上搜索。
1、2023 年 8 月 Chinese Journal of Network and Information Security August 2023 第 9 卷第 4 期 网络与信息安全学报 Vol.9 No.4 基于模型相似度的模型恶意代码夹带检测方法 汪德刚,孙奕,周传鑫,高琦,杨帆(信息工程大学,河南 郑州 450001)摘 要:联邦学习主要通过源数据不出本地而仅交互模型参数的方式保护参与共享用户数据的隐私安全,然而其仍然面临众多安全挑战,目前研究者主要针对如何增强模型隐私保护和检测恶意模型攻击等问题展开较为广泛的研究,然而利用联邦学习过程中频繁交互的模型数据进行恶意代码夹带导致风险扩散
2、的问题鲜有研究。针对联邦学习训练过程中通过模型传递恶意代码导致风险扩散的问题,提出一种基于模型相似度的模型恶意代码夹带检测方法。通过分析联邦学习本地模型与全局模型的迭代过程,提出计算模型距离的方法,并使用模型距离量化模型之间的相似度,最终根据各客户端模型之间的相似度对携带恶意代码的模型进行检测。实验结果表明,提出的检测方法具有较好的性能指标,当训练集为独立同分布时,在 178 MB 大小的模型中嵌入 0.375 MB 恶意代码,检测方法的真正率为 82.9%,误报率为 1.8%;嵌入 0.75 MB 恶意代码时,检测方法的真正率为 96.6%,误报率为 0.38%。当训练集为非独立同分布时,检
3、测方法的准确率随恶意代码嵌入率以及联邦学习训练轮数的增加而增加。在对恶意代码进行加密的情况下,提出的检测方法仍然能够达到 90%以上的准确率。在多攻击者的场景中,攻击者数量已知与未知时的检测方法准确率均能保持在 90%左右。关键词:联邦学习;模型;模型相似度;恶意代码;检测 中图分类号:TP309.2 文献标志码:A DOI:10.11959/j.issn.2096109x.2023056 Malicious code within model detection method based on model similarity WANG Degang,SUN Yi,ZHOU Chuanxin
4、,GAO Qi,YANG Fan Information Engineering University,Zhengzhou 450001,China Abstract:The privacy of user data in federated learning is mainly protected by exchanging model parameters instead of source data.However,federated learning still encounters many security challenges.Extensive research has bee
5、n conducted to enhance model privacy and detect malicious model attacks.Nevertheless,the issue of risk-spreading through malicious code propagation during the frequent exchange of model data in the federated learning process has received limited attention.To address this issue,a method for detecting
6、 malicious code within 收稿日期:20220329;修回日期:20220530 通信作者:孙奕, 引用格式:汪德刚 孙奕,周传鑫,等.基于模型相似度的模型恶意代码夹带检测方法J.网络与信息安全学报,2023,9(4):90-103.Citation Format:WANG D G,SUN Y,ZHOU C X,et al.Malicious code within model detection method based on model simi-larityJ.Chinese Journal of Network and Information Security,20
7、23,9(4):90-103.第 4 期 汪德刚等:基于模型相似度的模型恶意代码夹带检测方法 91 models,based on model similarity,was proposed.By analyzing the iterative process of local and global models in federated learning,a model distance calculation method was introduced to quantify the similarity between models.Subsequently,the presence o
8、f a model carrying malicious code is detected based on the similarity between client models.Experimental results demonstrate the effectiveness of the proposed detection method.For a 178MB model containing 0.375MB embedded malicious code in a training set that is independent and identically distribut
9、ed,the detection method achieves a true rate of 82.9%and a false positive rate of 1.8%.With 0.75MB of malicious code embedded in the model,the detection method achieves a true rate of 96.6%and a false positive rate of 0.38%.In the case of a non-independent and non-identically distributed training se
10、t,the accuracy of the detection method improves as the rate of malicious code embedding and the number of federated learning training rounds increase.Even when the malicious code is encrypted,the accuracy of the proposed detection method still achieves over 90%.In a multi-attacker scenario,the detec
11、tion method maintains an accuracy of approximately 90%regardless of whether the number of attackers is known or unknown.Keywords:federated learning,model,model similarity,malicious code,detection 0 引言 近年来,隐私泄露事件频发,隐私问题比以往更受关注。作为一种具有隐私保护特性的分布式机器学习训练框架,联邦学习1迅速成为研究热点。联邦学习主要通过源数据不出本地而仅交互模型参数的方式保护参与共享用户数
12、据的隐私安全,实现数据安全共享与协同分析。然而,由于模型反演2-3、成员推理4、模型提取5-6以及模型投毒7-12等攻击的存在,共享模型仍然存在模型隐私泄露和恶意模型攻击等问题,模型隐私泄露是指攻击者利用本地模型或全局模型恢复源数据或提取关于源数据的一些隐私信息,如银行卡号13等。恶意模型攻击的目的是影响最终训练得到的全局模型质量,如在全局模型中植入后门8。目前研究者主要针对如何增强模型隐私保护和检测恶意模型攻击等问题展开较为广泛的研究,然而利用联邦学习过程中频繁交互的模型数据进行恶意代码夹带导致风险扩散的问题鲜有研究。现有研究14-16表明,攻击者可以在模型参数中嵌入恶意代码以规避安全检测,
13、这种方法可以在不影响模型精度的同时携带大型恶意软件,达到恶意代码扩散的目的,对整个联邦学习系统造成严重威胁。因此,如何在联邦学习系统中有效、准确地进行模型恶意代码夹带检测是亟待解决的问题。本文提出一种基于模型相似度的模型恶意代码夹带检测方法,使用模型距离来量化客户端模型之间的相似度,进而对携带恶意代码的模型进行检测,本文的贡献点如下。1)首次分析了联邦学习中利用模型数据进行恶意代码传播导致风险扩散的问题并提出相应的检测方法。2)通过分析联邦学习本地模型与全局模型的迭代过程,提出计算模型距离的方法并使用模型距离来量化模型之间的相似度。3)提出基于模型相似度的恶意代码夹带检测方法,并通过实验证明提
14、出的检测方法具有较好的性能指标,如在 178 MB 的大小模型中嵌入0.375 MB 恶意代码时,检测方法的真正率为82.9%,误报率为 1.8%;嵌入 0.75 MB 恶意代码时,检测方法的真正率为 96.6%,误报率为0.38%。1 相关研究 1.1 联邦学习 联邦学习最早由 Google 于 2016 年提出1,其本质是一种分布式机器学习训练框架,主要包括客户端(也称参与方)和中心服务器(也称参数聚合器,以下简称中心)。客户端在中心的协调下共同训练模型,其中客户端使用本地数据训练得到本地模型,中心负责对本地模型进行加权聚合,生成全局模型。经过多轮迭代后得到一个与集中式训练精度相似的模型,
15、有效降低了集中式训练通过聚合源数据带来的数据隐私泄露风险。92 网络与信息安全学报 第 9 卷 联邦学习工作原理如图 1 所示,假设有 k 个客户端,各自拥有隐私数据集()iikD,在中心的协调下进行机器学习训练,其中第r轮训练过程如下。各客户端从中心下载第r1轮训练得到的全局模型r,然后使用数据集iD对r继续训练得到本地模型ri。各方将ri上传给中心。中心收到所有本地模型后进行加权平均,得到全局模型1r+。重复以上3个步骤直到全局模型收敛或者模型精度达到指定的阈值即可停止训练。在第一轮训练时,客户端可以从中心下载预训练模型1,否则各个客户端直接使用本地数据进行训练。根据数据特征和数据样本在客
16、户端中的分布情况,联邦学习一般可以分为横向联邦学习(HFL,horizontally federated learning)、纵向联邦学习(VFL,vertically federated learning)和联邦迁移学习(FTL,federated transfer learning)17。Lyu等18根据参与方的数量、参与模型聚合的频率和技术能力进一步将HFL分为面向企业的HFL(H2B)和面向消费者的HFL(H2C)。在H2B模式下,通常只有少数参与者,每个参与者可以频繁地被选择进行参数聚合,参与者往往具有较高的技术能力和算力。在H2C模式下,可能有数千甚至数百万的参与者,在每一轮的训练
17、中,通常聚合器只会选择其中一个子集进行参数聚合,因此每个参与者被频繁地选择进行参数聚合的概率很低,它们通常具有有限的算力。图 1 联邦学习工作原理 Figure 1 Workflow of federated learning 1.2 恶意代码嵌入与检测 在僵尸网络、勒索软件、APT等高级恶意软件活动中,一些攻击者会将恶意代码附加到看似无害的载体(如图片等)文件中而不破坏载体的结构。虽然普通用户通常看不到这些秘密信息,但它们很容易被检测软件发现。更加隐蔽的方法是使用隐写术19-20将要传递的恶意代码嵌入载体中,然而,一般的隐写载体由于信道容量小,不适合传递大型恶意软件。现有研究14-16表明,
18、攻击者可以在机器学习模型参数中嵌入恶意代码以规避安全检测,这种方法可以在不影响模型精度的同时携带大型恶意软件。为了叙述方便以及不与联邦学习中的恶意模型混淆,下文将嵌入恶意代码的机器学习模型统称为恶意代码模型。恶意代码和恶意软件术语交替使用,都是指能够在目标主机执行的恶意程序。在神经网络模型中,每个神经元都有若干权重参数和1个偏置参数,如图2所示。模型隐藏层h1的第一个神经元的输出可以由式(1)计算。()111iiofxwb=+(1)其中,f代表激活函数,ix代表上层输入,1iw代第 4 期 汪德刚等:基于模型相似度的模型恶意代码夹带检测方法 93 表各输入对本神经元的权重值,1b为本神经元的偏
19、置值。大多数机器学习编程框架使用IEEE 75421单精度浮点数作为神经网络参数的默认存储类型。如图3所示,IEEE 754单精度浮点数可以表示为ES 1.M2。其中,符号位(S)决定该浮点数的正负;指数位(E)是2的幂,它的作用是对浮点数加权;尾数位(M)是二进制小数,代表浮点数的有效小数。图 2 多层神经网络模型 Figure 2 Multi-layer neural network 图 3 IEEE 754 单精度浮点数表示方法 Figure 3 IEEE 754 single precision floating point number representation Liu等14提出
20、的StegoNet通过先将恶意软件嵌入深度神经网络(DNN,deep neural network)模型中,然后通过DNN模型供应链进行传播。StegoNet使用4种嵌入恶意软件的方法:最低有效位(LSB)替换、弹性训练、值映射和符号映射。借鉴图像隐写中的LSB算法20,StegoNet通过替换模型参数最低有效位将恶意软件嵌入DNN模型中。对于大型DNN模型,该方法可以在不降低模型性能的前提下嵌入大型恶意软件。但对于较小的模型,随着恶意软件字节数的增加,模型性能会急剧下降。在弹性训练中,攻击者首先挑选一些模型参数进行恶意软件嵌入,然后将这些参数固定,再次训练该模型,使其精度恢复至未嵌入恶意软件
21、时的状态。与LSB替换方法相比,该方法可以在模型中嵌入更大的恶意软件。值映射和符号映射方法将恶意软件字节映射到模型参数中,但是这种映射方法需要一个置换映射表来恢复恶意软件,这会限制嵌入恶意软件的大小。Wang等15通过分析浮点数的格式,发现浮点数的绝对值是由指数部分决定的,通过调整指数部分可以使浮点数绝对值固定在一定的区间内。例如,将浮点数的第36 bit设为1,最后24 bit设为任意值(即0 x3c0000000 x3cffffff),则浮点数的绝对值在0.007 80.031 3。因此,Wang等15提出固定神经元参数的首字节为0 x3c或0 xbc等值,在其后的3 byte嵌入恶意软件
22、,以此将参数变化限制在一定区间内,然后通过再训练的方式保证模型的精度。他们在不同的模型和恶意软件样本上验证了快速替换的可行性,如在178 MB的AlexNet模型中嵌入36.9 MB的恶意代码,而模型的精度损失不到1%。Liu等14和Wang等15通过实验发现常规的恶意软件检测引擎无法对恶意代码模型进行检测。Liu等14通过实验指出,由于DNN的复杂特性,使用传统的隐写分析方法22无法对StegoNet进行有效检测。Wang等15提出可以将神经元参数,先由浮点数转换为十六进制数表示,再与现有的恶意软件特征数据库进行对比,但是这种基于特征数据库的检测方法很容易通过加密等方式进行规避。他们还指出,
23、可以通过模型压缩、裁剪和调优等方式主动破坏模型中可能存在的恶意软件,同时保持模型的精度不受影响。在联邦学习中,中心只是将各个本地模型进94 网络与信息安全学报 第 9 卷 行加权聚合得到全局模型后下发给各个客户端。训练一旦开始,机器学习模型结构、超参数等信息就已确定,无法再修改。因此,主动破坏模型中可能存在的恶意软件这种防御方法在联邦学习中并不适用。本文提出一种基于模型相似度的模型恶意代码夹带检测方法,利用诚实模型之间相似度大于诚实模型与恶意代码模型之间相似度的特点来检测恶意代码模型。2 威胁模型 文献14-15假设攻击者通过模型供应链进行恶意代码传播,如图4所示,攻击者首先自行训练或下载一个
24、训练好的模型,然后将恶意软件嵌入其中,根据嵌入代码后模型的精度来判断是否需要再微调模型以提高模型的性能。随后攻击者将嵌入恶意代码的模型发布到互联网上,控制受害主机下载该模型,提取恶意软件并执行。本文的威胁模型建立在面向企业的横向联邦学习场景下,如图5所示,在该联邦学习系统中有k个客户端和1个中心服务器,威胁模型定义如下。图 4 通过模型供应链进行恶意代码传播 Figure 4 Malicious code spreading through the model supply chain 受害者:受害者为联邦学习中心。假设中心在一个安全的环境中部署模型聚合服务,该安全环境使用本文提出的检测方法对
25、收到的客户端模型进行分析,检测通过后还会对客户端模型进行性能测试。如果客户端模型没有通过检测或模型性能过低,则不会发送给中心。攻击者:假设攻击者为参与联邦学习训练的一个或多个客户端。攻击者拥有训练模型的数据,并且会遵守联邦学习协议正常执行模型训练,只是在本地模型训练结束后在模型中嵌入恶意软件。攻击者的目标:攻击者的目标是在中心服务器上执行恶意软件,因为中心会对客户端模型的性能进行测试,所以攻击者需要保证嵌入恶意代码的模型性能不会过低而导致模型被拒绝。诚实模型:诚实模型是指客户端遵循联邦学习协议训练得到未嵌入任何数据的本地模型。3 基于模型相似度的检测方法 3.1 模型相似性分析 在联邦学习每轮
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 模型 相似 恶意代码 夹带 检测 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。