基于Perlin增强与随机变换的黑盒攻击方法.pdf
《基于Perlin增强与随机变换的黑盒攻击方法.pdf》由会员分享,可在线阅读,更多相关《基于Perlin增强与随机变换的黑盒攻击方法.pdf(4页珍藏版)》请在咨信网上搜索。
1、1引言深度神经网络(Deep Neural Networks,DNNs)在图像识别、医疗诊断、自然语言处理等领域中表现出优秀的处理能力。然而研究表明 DNNs 同样存在不可忽视的安全问题。以图像分类任务为例,攻击者可在模型训练、预测的过程中对输入数据添加微小的扰动,使模型做出错误的判断。此类被处理后的输入图像称为对抗样本。对对抗样本的生成方法进行研究,有助于理解深度神经网络的基本原理并检验其鲁棒性,也能够为建立完善的对抗防御体系提供新的思路。当前基于迁移性的黑盒攻击方法中通常使用较高的扰动系数生成拥有高攻击成功率的对抗样本,导致对抗扰动较易被防御者察觉。本研究即基于迁移性的黑盒攻击方法与数据增
2、强技术相互融合,提出一种基于 Perlin 增强与随机变换的黑盒攻击方法。2相关研究2.1 对抗样本在 ImageNet 数据集中,对比结合两种图像相似度的评价指标,可证明选择 Perlin 噪声1进行增强的基于 Perlin 增强与随机变换的黑盒攻击方法张朝阳,李晖(沈阳工业大学信息科学与工程学院,沈阳 110870)摘要:当前基于迁移性的黑盒攻击通常使用较高扰动系数生成具有较强可迁移性的对抗样本,导致对抗扰动较易被防御者察觉,针对此问题,提出一种基于 Perlin 增强与随机变换的黑盒攻击方法。方法利用 Perlin 噪声对干净样本进行数据增强,同时使用增强后的数据集和随机尺度与填充运算来
3、改进现有的基于平移不变的对抗样本生成方法,以降低对抗样本的黑盒攻击能力与扰动系数的耦合程度。在 ImageNet 数据集中的实验结果表明,通过优化后的对抗攻击在不修改扰动系数的情况下增强了对抗样本的可迁移性。关键词:黑盒攻击;数据增强;对抗样本;可迁移性;优化方法DOI:10.3969/j.issn.1002-2279.2023.05.008中图分类号:TP391.41文献标识码:A文章编号:1002-2279(2023)05-0031-04A Black-Box Attack Method Based on Perlin Enhancement andRandom Transformatio
4、nZHANG Zhaoyang,LI Hui(School of Information Science and Engineering,Shenyang University of Technology,Shenyang 110870,China)Abstract:At present,black-box attacks based on transferability usually use high disturbance coeffi-cient to generate adversarial examples with strong transferability,which mak
5、es adversarial disturbanceeasier to be detected by defenders.To solve this problem,a black-box attack method based on Perlinenhancement and random transformation is proposed.By using Perlin noise,the method enhances the dataof clean examples,and at the same time,it uses the enhanced data set and ran
6、dom scale and filling opera-tion to improve the existing translation-invariant adversarial examples generation method,so as to reducethe coupling degree between the black-box attack ability and the disturbance coefficient of adversarialexamples.The experimental results in ImageNet data set show that
7、 the transferability of adversarial exam-ples is enhanced by the optimized adversarial attack without modifying the disturbance coefficient.Key words:Black-box attack;Data enhancement;Adversarial examples;Transferability;Optimizationmethod作者简介:张朝阳(1997),男,河北省廊坊市人,硕士研究生,主研方向:神经网络安全。收稿日期:2023-04-14微处理
8、机MICROPROCESSORS第 5 期2023 年 10 月No.5Oct.,2023微处理机2023 年合理性。在图像处理领域中,Szegedy 等人2首次发现并证明深度神经网络存在安全问题。对于一个已知的神经网络分类器 f(x,W),将原始样本 x 作为输入,分类器输出对应的真实标签 y。对抗攻击是在|xl-x|m臆着 条件下,沿梯度上升的方向使模型的损失值逐渐增大,从而计算出能够导致模型分类错误的对抗样本 xl,对抗样本的生成过程可表示为:结合式(1)和式(2)可知,对抗样本的生成过程与模型训练过程高度相似。因此在模型训练过程中的常用的优化方式均可用于对抗样本的生成过程。2.2FGS
9、M 类的对抗攻击方法针对神经网络过于线性无法抵抗线性对抗性扰动的问题,Goodfellow 等人3提出了快速梯度算法(云ast 郧radient 杂ign 酝ethod,FGSM),该方法使损失函数沿梯度增大的方向变换从而生成相应的对抗样本,并在范数 m=肄 的条件下对扰动进行限制。具体描述如下式:其中(f兹,x,y)是由输入样本、真实标签和分类函数构成的参数对;x(f兹,x,y)为模型损失函数相对于参数对(f兹,x,y)的梯度;Sign()为符号函数;Clip()为对抗扰动的限制函数。该方法生成的对抗样本拥有较高的白盒攻击能力,但在未知环境中攻击成功率会大幅度较低。董胤蓬等人4在 FGSM
10、基础上进行优化提出了一种基于动量的黑盒攻击方法(酝omentum 陨terative云ast 郧radient 杂ign 酝ethod,MI-FGSM),利用传统优化方法将动量与模型梯度相互融合,使对抗样本的黑盒攻击强度得到了大幅度提高。谢慈航等人5提出了一种拥有不同输入的快速梯度算法(阅iverse陨nputs 陨terative 云ast 郧radient 杂ign 酝ethod,DIM),该算法对原始输入样本进行 籽 概率的尺度变换和填充并生成深度分类器的输入样本,同时结合基于动量的对抗攻击算法生成了可迁移性更强的对抗样本。庞天宇等人6提出了一种基于平移不变的快速梯度算法(栽ransla
11、tion 陨nvariant 云ast 郧radient 杂ign 酝ethod,TIM),该算法将卷积运算融入到对抗样本的生成过程中。相比于单独使用动量以及随机变换生成的对抗样本,由于卷积内核具有的平滑滤波效果,该算法所生成的对抗扰动较为连续,与原始图像的拟合程度较好。FGSM 类的黑盒攻击方法重点在于通过调整模型的梯度生成具有较强可迁移性的对抗样本,且均可相互结合生成具有更高黑盒成功率的对抗样本。2.3数据增强技术在对抗攻击中的应用在神经网络训练的过程中,数据增强技术已经被证明可明显提升网络的泛化能力,降低过拟合现象。陈伟等人7将 Simplex 噪声引入到对抗攻击中,基于查询方式在初始对
12、抗样本与 Simplex 噪声的组合中采样生成相应的对抗样本。张武等人8将高斯噪声与反转策略相互结合,基于梯度攻击的方式生成具有较强可迁移性的对抗样本。3方法优化本对抗样本生成方法在相同的扰动系数下能够生成可迁移性更强的对抗样本。重点将噪声增强技术与随机尺度变换和填充结合,运用到对抗样本的生成过程中,进一步提高对抗样本的迁移性。利用Perlin 噪声高拟合度的优点,将该噪声作为噪声增强技术的输入项,并基于迁移性的黑盒攻击方法生成具有更高可迁移性的对抗样本。3.1 原始样本数据增强Perlin 噪声与传统白噪声不同,其噪声函数不仅与随机数生成器功能类似,而且能够产生平滑自然的伪随机序列,被广泛应
13、用于模拟自然纹理,包括火焰、云朵、大理石、河流等自然现象噪声。图 1 展示了纹理窗格为 10 的 Perlin 噪声图像。本研究将纹理大小随机的 Perlin 噪声与每张原始样本的 RGB 均值结合,产生与原始图像背景颜色相近的专属 Perlin 噪声图像,并与数据集中对应的原始图像相互融合作为对抗攻击中首次迭代的输入样本,数学表达式为:其中,x 为原始图像;xp为增强后的样本;P 为融合(1)(2)argmax(,),s.t.mlJxx yxx1()nnnlllJJJyfxyfx xxx(3)Clip(Sign(,)lJ fxxxx y图 1纹理窗格为 10 的 Perlin 噪声(4)p(
14、1)xx+P窑32窑5 期RGB 均值的 Perlin 噪声,茁 为噪声的叠加系数。此外,为进一步提升 Perlin 噪声的细节,运用分型布朗运动引入了多种频率的 Perlin 噪声,并进行加权求和得到最终噪声图像。具体的数学表达式为:其中,函数 noise()是取在(x,y)处 Perlin 噪声的像素值,N 代表所叠加噪声的种类数,此处取 N=4。至此基于 Perlin 噪声的图像增强过程可表示为:其中,x 为原始输入;xp为增强后的样本;茁 为噪声的叠加系数,此处取 茁=0.2。3.2对抗样本生成方法文献6提出的优化领域的 TIM,相比于传统的动量方法,额外引入了卷积运算,其更新过程为:
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 Perlin 增强 随机 变换 黑盒 攻击 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。