面向入侵检测的频域对抗攻击.pdf
《面向入侵检测的频域对抗攻击.pdf》由会员分享,可在线阅读,更多相关《面向入侵检测的频域对抗攻击.pdf(6页珍藏版)》请在咨信网上搜索。
1、以深度学习为代表的机器学习技术已经在入侵检测方面取得显著进展,但对抗样本的出现会使入侵检测模型产生错误的结果,从而躲过检测,导致系统遭受恶意攻击。基于决策攻击的方法会进行多次查询,导致攻击容易被发现,而且效率较低。不同于传统的攻击方式,文中探索了一种针对入侵检测的频域对抗攻击,对入侵检测数据集进行傅里叶变换,利用低通滤波器,保留样本中更多的低频信息,去掉部分高频信息,再利用反傅里叶变换把修改后的数据转换回时域,实现基于频域的对抗攻击,从而检测入侵检测系统的鲁棒性。比较各种不同方法下生成的对抗样本与原始数据集攻击准确率,表明频域对抗攻击算法的攻击效果明显优于之前的对抗样本方法。关键词:深度学习;
2、入侵检测;傅里叶变换;对抗样本;频域攻击中图分类号:TP391摇 摇 摇 摇 摇 摇 摇 文献标识码:A摇 摇 摇 摇 摇 摇 文章编号:1673-629X(2023)09-0072-06doi:10.3969/j.issn.1673-629X.2023.09.011Frequency Domain Adversarial Attack for Intrusion DetectionYANG Yi,ZHANG Xing-lan(Faculty of Information Technology,Beijing University of Technology,Beijing 100124,Ch
3、ina)Abstract:Machine learning technology represented by deep learning has made remarkable progress in intrusion detection,but theappearance of adversarial examples will make the intrusion detection model produce wrong results,thus avoiding detection,resulting inmalicious attacks on the system.The me
4、thod based on decision attack will conduct multiple queries,making the attack easy to find andinefficient.Different from traditional attack methods,we explore a frequency adversarial attack for intrusion detection.The Fouriertransform is performed on the intrusion detection data set,and a low-pass f
5、ilter is used to retain more low-frequency information in thesample and remove part of high-frequency information,and then use the inverse Fourier transform to convert the modified data back tothe time domain to implement frequency-based adversarial attacks,thereby detecting the robustness of the in
6、trusion detection system.Comparing the attack accuracy of the adversarial examples generated by different methods with the original data set,frequency adversarialattack is better than the previous adversarial examples method.Key words:deep learning;intrusion detection;Fourier transform;adversarial e
7、xamples;frequency domain attack0摇 引摇 言入侵检测系统是一种网络安全设备,它可以对网络流量传输进行实时的监控,从中检测出异常的攻击行为。由于网络技术的快速发展和广泛应用,网络流量变得越来越复杂,各种新型的攻击行为更是层出不穷,这就对入侵检测模型提出了更高的要求。随着人工智能的兴起与发展,机器学习算法被应用于许多领域,在网络安全领域贝叶斯算法被用于过滤垃圾邮件1,随机森林被用于恶意域名检测2,聚类以及深度神 经网络算法 被应用于 网 络 入 侵 检测3-4。深度学习出现之后,以神经网络为基础架构的深度学习算法降低了对于特征工程的依赖,能够对网络攻击的特征进行自动
8、的提取和识别,更加有利于发现未知、潜在的攻击行为。但机器学习模型本身也存在着安全问题,它极容易受到对抗样本的攻击。Szegedy 等5提出:对输入样本故意添加一些人无法察觉的细微的干扰,导致模型以高置信度来输出一个错误的结果,于是提出了对抗样本的概念6-7。他们的研究提到,很多情况下,在训练集的不同子集上训练得到的具有不同结构的模型都会对相同的对抗样本实现误分,这意味着对抗样本成为了训练算法的一个盲点。Nguyen 等人发现面对一些人类完全无法识别出差异第 33 卷摇 第 9 期2023 年 9 月摇 摇 摇 摇 摇 摇 摇 摇 摇 摇计 算 机 技 术 与 发 展COMPUTER TECHN
9、OLOGY AND DEVELOPMENT摇 摇 摇 摇 摇 摇 摇 摇 摇 摇Vol.33摇 No.9Sep.摇 2023的对抗样本,深度学习模型会以高置信度将它们错误分类,从而攻击成功8。深度学习对于对抗样本的脆弱性在很多的机器学习模型中普遍存在,因此进一步研究对抗样本实际上有利于整个机器学习和深度学习领域的进步。入侵检测模型会受到对抗样本的攻击,说明现存的入侵检测模型是不安全的,已知的各种攻击算法,大部分都是在时域数据上基于决策边界,使损失函数最大化,这种攻击方式是有一定效果的,但是入侵检测数据之间具有关联性,利用损失函数最大化修改的数据容易失去其原有的相关性。该文提出了一种基于频域的攻
10、击方式,利用傅里叶变换把数据转换到频域上,很多在时域内看不见的特性在频域内能很清楚地得到,从而提取数据,把低频的移动到数据中心,把高频的数据去掉,通过低通滤波器,对较少的特征进行改变,生成攻击效果更好的对抗样本。1摇 研究现状1.1摇 入侵检测入侵检测(Intrusion Detection,ID)9是在 20 世纪80 年代由 James Anderson 最先提出的概念,随后学者Heberlein 等人10基于 James Anderson 理论提出网络入侵检测系统概念。有学者指出,入侵主要包括以下三方面:一是未经授权即进行信息的访问;二是不可靠的行为;三是操作造成系统的不稳定11。研究入
11、侵检测技术主要分为以下两点:特征的提取及分类。其中,特征提取在入侵检测中非常关键。深度学习作为表征学习的代表,能够在高维海量数据中获取其本质特征,进而提高分类准确率。深度学习在各个领域已得到广泛应用,其也被应用于入侵检测中。文献12提出了基于一维卷积神经网络的入侵检测方法,该方法可以自动提取原始数据的特征。文献13 分 析 了 递 归 神 经 网 络(Recurrent NeuralNetwork,RNN)进行入侵检测的可行性,通过将网络流量建模为状态序列来检测网络流量的行为。文献14 验 证 了 长 短 时 记 忆 网 络(Long Short TermMemory,LSTM)在入侵流量分类
12、中的性能,结果表明LSTM 可以学习到隐藏在训练数据中的攻击。文献15提出了一种基于自动编码器(Auto Encoder,AE)的网络和长短期记忆神经网络(LSTM)的网络入侵检测方法。通过叠加多个自编码网络,将高维数据映射到低维空间,构建了自编码网络模型。然后利用优化后的 LSTM 模型提取特征、训练数据并预测入侵检测类型。实验结果表明,该模型和传统的算法相比,对网络流量进行分类的效果是更优的。Kasongo 等人16使用前馈神经网络(Feedforward Neural Network,FNN)和基于滤波器的特征选择算法,提出了一种基于深度学习的入侵检测系统,将其与支持向量机、决策树、K近
13、邻等机器学习方法进行比较,FNN 的准确性有所提高。张文泷等人17针对深度学习模型在网络入侵检测中进行参数训练时因梯度消失而导致深度学习模型过拟合在测试集上准确率下降的问题,提出了一种结合 Relu 激活函数与 ResNet 的网络入侵检测算法,即CA-ResNet,结果表明,提高了网络的特征提取能力和对尺度的适应性。1.2摇 对抗样本随着深度学习应用到入侵检测系统,基于已有数据的入侵检测系统的分类任务已经完成得比较好,但是对于恶意攻击中的对抗样本的方式,入侵检测的数据集在这方面的表现确实不尽如人意。现在对抗样本攻击的研究主要是涉及梯度攻击和优化攻击,还有一部分分为对图像进行全像素添加扰动以及
14、部分添加像素扰动。Goodfellow 等人18提出的快速梯度符号法(Fast Gradient Sign Method,FGSM)利用损失函数的导数,通过在原样本上添加噪声,使其沿着损失函数梯度上升的方向移动,从而生成分类错误的图像对抗样本。Moosavi 等人19提出了一种基于超平面分类的生成方法 DeepFool,在不同的平面上代表不同的类别,利用迭代计算添加扰动将处于平面边界的图像样本逐步移动到另一个平面,让其呈现不同的分类结果。Papemot 等 人20在 2015 年 提 出 了 JSMA(JacobinSaliency Map Attack)算法,JSMA 是利用雅可比矩阵计算了
15、模型对每个特征的敏感度,得到了其中的显著像素点,并通过迭代的过程,每次修改一个显著像素点,最终达到改变分类结果的攻击效果。Li 等21提出了一个通过学习对抗样本的书分布来对深度神经网络模型进行黑盒攻击的方法,通过找到以原样本为中心的小区域内的概率密度分布,从中选择可能造成攻击的对抗样本。除以之外,Sayantan 等人22提出了一种应用在黑盒场景下的目标攻击方法,针对目标的通用扰动方法(Universal Perturbations for Steering to ExactTargets,UPSET),基于残差梯度网络,可以对特定的目标类别生成一个通用扰动,使得将该扰动添加到任何一张图像上都
16、可以使其被错误分类为目标类别。1.3摇 入侵检测的对抗样本有一些研究者通过将一些对抗样本生成算法应用在入侵检测分类模型上,成功探索了入侵检测分类器中可能出现的攻击,并对入侵检测对抗样本的特征进行分析。Rigaki23分别使用 JSMA 和 FGSM 方法在NSL-KDD 数据集上成功生成了入侵检测对抗样本,并对两种方法修改的特征数量和耗费的时间进行了比较。Wang24在论文中总结了四种对抗样本生成方法37摇 第 9 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 杨摇 怡等:面向入侵检测的频域对抗攻击在入侵检测领域的攻击效果,详细比较了 FGSM、JSMA、DeepFool 和
17、C&W attack 在 NSL-KDD 数据集上的效果,并分析了各方法对特征的修改情况。还有一些研究者从别的角度出发,也为入侵检测领域的对抗样本研究提供了新的思路。丁烨等人25在频谱上综合分析了现有的攻击方法和数据集,发现大部分的对抗样本在频域都出现了严重的伪影,提出一种通用的改进算法 IAA-DCT。Li 等人26提出基于决策的攻击方式通常会进行过多的查询,导致攻击很容易被发现,基于自然图像的傅里叶光谱大部分集中在低频域,提出频域对抗攻击方式,提高了攻击效率。综上,入侵检测模型会受到对抗样本的攻击,说明现存的入侵检测模型是不安全的,所以在此基础上,该文将研究的重点放在入侵检测对抗样
18、本的生成方法上,并且分析入侵检测的流量数据之间的关联性,生成在攻击效果更好的对抗样本同时更加符合真实世界中的网络流量数据。2摇 频域对抗攻击2.1摇 傅里叶变换傅里叶变换(Fourier Transform)是一种线性积分变换,用于信号在时域和频域之间的转换,从物理效果看,傅里叶变换是将信号从空间域转换到频域,逆变换就是将信号从频域转换到空间域。使用傅里叶变换,可以把频域中最重要的信号表达出来,并且得到和原始信号非常接近的波形。通常将这种波的快慢的性质,称为波的频域。傅里叶频谱图上看到明暗不一的亮点,实际上是信号中某一点与邻域点差异的强弱,即梯度的大小,也就是频域的大小。傅里叶变换的实际意义就
19、是对一个特定的信号曲线进行分解重组,具体操作就是将一个信号曲线分解成若干个正弦曲线,这些正弦的频域代表了原信号曲线的频域变化情况,同一频域下的信号被分到了一个正弦曲线上,这样就有了若干个不同频域的正弦曲线。如果直接在时域上进行处理是比较麻烦的,因此一般都会先将时域数据按照不同的频域振幅分解成若干个音频和振幅不同的音频信号图,再将这些不同的信号图按照不同的振幅映射到一个平面图上,就是频域图。离散傅里叶变换公式如下:Xk=移N-1n=0fnw-(k-1)(n-1)=移N-1n=0fne-k2仔niN(1)其中,0 k n-1。高频指变化剧烈的灰度分量,如图像的边缘轮廓区域。低频指变换缓慢的灰度分量
20、,如图像中轮廓的填充,非边缘区域。人类视觉系统对高频分量的敏感度低于低频分量,因此利用傅里叶变换将时域数据转变为频域数据,构造一个和原数据大小相同,数值全为0 的掩模底板,获取原始数据频域为 0 的中心坐标,以此为中点,这个区域的掩模内的像素值为 255,把掩模覆盖到原始频谱图上,得到所有的低频点。利用低通滤波器,保留更多的低频信息,去除掉部分高频信息,再利用反傅里叶变换把修改后的数据转换回时域。2.2摇 FGSM 算法FGSM 是由 GoodFellow 在其论文Explaining andHarnessing Adversarial Examples中提出。通过求出模型对输入的导数得到其具
21、体的梯度方向,接着乘以一个步长,得到的“扰动冶加在原来的输入上就得到了对抗样本。假设输入样本为 x,分类结果为 F(x),在输入样本上叠加扰动,得到对抗样本 x。摇x=x+着sign(xJ(兹,DFT(x),Y)啄Fj(x)啄x=(Wn+1,j啄Hn啄xi)伊啄fn+1,j啄xi(Wn+1,jHn+bn+1,j)jS(X,t)i=0 if啄Fj(X)啄Xi 0(啄Ft(X)啄Xi)|移j屹t啄Fj(X)啄Xi|otherwise(F(Xadv),灼,Y)着,酌灼=1|x|t着姿DFT(x)+啄DFT(x)Y*F(xadv)=Y椰啄x椰 姿S 饮Xadvby 兹 s.t.imax=argmaxi
22、S(X,Y)i(2)其中,sign 函数保证与梯度函数方向一致,着 代表学习率,控制扰动的程度。2.3摇 JSMA 算法JSMA 是利用扰动一组输入特征的信息从而导致深度模型分类器分类出错。这与修改大多数输入特征的 FGSM 攻击不同,JSAM 产生的对抗样本更具有攻击性,而且更易生成真实的网络数据流。JSMA 算法主要包括三个过程:计算前向导数得到不同特征对分类结果的影响程度,构建基于前向导数的对抗性显著图,通过显著图寻找对攻击影响程度最大的输入特征添加扰动。前向导数就是计算神经网络最后一层的每一个输出对输入的每个特征的偏导。计算过程是采用链式 法 则。FGSM 是 对 损 失 函 数 求
23、导 得 到 的,而JSMA 中前向导数是通过对神经网络最后一层输出求导得到的。前向导数的计算公式为:47摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷F(x)=鄣F(x)鄣x=鄣Fj(x)鄣xii沂1,2,M,j沂1,2,N(3)其中,矩阵(i,j)个元素啄Fj(x)啄xi为输出神经元 Fj对输入 xi的导数。啄Fj(x)啄xi=(Wn+1,j啄Hn啄xi)伊啄fn+1,j啄xi(Wn+1,jHn+bn+1,j)(4)其中,Fj是第 j 个隐藏层的输出向量,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 面向 入侵 检测 对抗 攻击
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。