基于隐写噪声深度提取的JPEG图像隐写分析.pdf
《基于隐写噪声深度提取的JPEG图像隐写分析.pdf》由会员分享,可在线阅读,更多相关《基于隐写噪声深度提取的JPEG图像隐写分析.pdf(13页珍藏版)》请在咨信网上搜索。
1、收稿日期:网络出版时间:基金项目:国家自然科学基金(U ,);中原科技创新领军人才项目()作者简介:范文同(),男,中国人民解放军战略支援部队信息工程大学硕士研究生,E m a i l:f f t x x g c s i n a c o m张涛(),男,教授,E m a i l:t z h a n g c s l g e d u c n罗向阳(),男,教授,E m a i l:l u o x y_i e u s i n a c o m通信作者:李震宇(),男,副教授,E m a i l:l i z h e n y u c o m网络出版地址:h t t p s:/k n s c n k i n
2、 e t/k c m s/d e t a i l/T N h t m ld o i 敭 j 敭i s s n 敭 敭 敭 基于隐写噪声深度提取的J P EG图像隐写分析范 文 同,李 震 宇,张涛,罗 向 阳,(中国人民解放军战略支援部队信息工程大学 网络空间安全学院,河南 郑州 ;数学工程与先进计算国家重点实验室,河南 郑州 ;河南省网络空间态势感知重点实验室,河南 郑州 ;常熟理工学院 计算机科学与工程学院,江苏 常熟 )摘要:当前基于深度学习的隐写分析方法检测效果受限于其获取的隐写噪声的精确度.为了获取更加准确的隐写噪声,提高隐写分析的准确率,提出了一种基于隐写噪声深度提取的J P E
3、G图像隐写分析方法.首先,设计了隐写噪声深度提取网络,通过有监督的学习方式使网络能够准确地提取载秘图像中包含的隐写噪声;而后,利用设计的模型评价指标选择最优的隐写噪声提取网络;最后,根据隐写噪声的特点设计分类网络,实现载秘图像的检测,并将分类网络与隐写噪声深度提取网络融合得到最终的检测网络.实验在两个大规模 的 公 开 数 据 集(B O S S B a s e和B OWS)上 进 行,针 对 两 种 自 适 应J P E G图 像 隐 写 方 法(J UN I WA R D和U E D J C)在多个不同嵌入率和图像质量因子条件下构建的载秘图像进行检测.实验结果表明,该方法的检测准确率较性能
4、第二的方法分别提高了约 和 .文中方法通过提取更加准确的隐写噪声,减少了图像内容对隐写分析带来的影响,相比于典型的基于深度学习的J P E G图像隐写分析方法,取得了更好的检测效果.关键词:J P E G图像隐写分析;隐写噪声;卷积神经网络;深度学习中图分类号:T P 文献标识码:A文章编号:()J P E Gi m a g e s t e g a n a l y s i sb a s e do nd e e pe x t r a c t i o no f s t e g on o i s eF AN W e n t o n g L IZ h e n y u ZHANGT a o L U OX
5、 i a n g y a n g 敭 P L AS t r a t e g i cS u p p o r tF o r c e I n f o r m a t i o nE n g i n e e r i n gU n i v e r s i t y Z h e n g z h o u C h i n a 敭 S t a t eK e yL a b o r a t o r yo fM a t h e m a t i c a lE n g i n e e r i n ga n dA d v a n c e dC o m p u t i n g Z h e n g z h o u C h i n
6、a 敭 K e yL a b o r a t o r yo fC y b e r s p a c eS i t u a t i o nAw a r e n e s so fH e n a nP r o v i n c e Z h e n g z h o u C h i n a 敭 S c h o o l o fC o m p u t e rS c i e n c ea n dE n g i n e e r i n g C h a n g s h uI n s t i t u t eo fT e c h n o l o g y C h a n g s h u C h i n a A b s t
7、r a c t T h ep e r f o r m a n c eo f s t e g a n a l y s i s i s l i m i t e db yt h eq u a l i t yo f t h es t e g on o i s eo b t a i n e db yc u r r e n td e e pl e a r n i n g b a s e d m e t h o d s 敭 I no r d e rt oo b t a i n m o r ea c c u r a t es t e g on o i s ea n di m p r o v et h ea c
8、 c u r a c yo fs t e g a n a l y s i s an e wm e t h o d i sp r o p o s e db a s e do nd e e pe x t r a c t i o no f s t e g on o i s e f o r J P E Gi m a g e s t e g a n a l y s i s 敭F i r s t as t e g on o i s ed e e pe x t r a c t i o nn e t w o r ki sf o r m u l a t e dt op r e c i s e l ye x t
9、r a c tt h es t e g on o i s ef r o ms t e g oi m a g e sw i t ht h es u p e r v i s e dt r a i n e dn e t w o r k 敭 T h e n am o d e l e v a l u a t i o ni n d e xi sp r o p o s e dt os e l e c t t h em o s te f f e c t i v en e t w o r kf o rs t e g on o i s ee x t r a c t i o n 敭 F i n a l l y a
10、c c o r d i n gt ot h ec h a r a c t e r i s t i c so fs t e g on o i s e ac l a s s i f i c a t i o nn e t w o r ki sd e s i g n e dt od e t e c tt h es t e g oi m a g e s w h i c hi st h e nc o m b i n e dw i t ht h es t e g on o i s e 年月第 卷第期西安电子科技大学学报J OURNA LO FX I D I ANUN I V ER S I TYA u g V
11、 o l N o h t t p:/j o u r n a l x i d i a n e d u c n/x d x be x t r a c t i o nn e t w o r kt oo b t a i nt h ef i n a ld e t e c t i o nn e t w o r k 敭 I nt h es t e g a n a l y s i se x p e r i m e n t t w ol a r g e s c a l ep u b l i c l ya v a i l a b l ed a t a s e t s B O S S B a s ea n dB O
12、WS a r eu s e dt oc o n s t r u c tt h es t e g oi m a g e sb yt w oa d a p t i v eJ P E Gi m a g e s t e g a n o g r a p h ym e t h o d s J UN I WA R Da n dU E D J C u n d e r s e v e r a l e m b e d d i n gr a t e s a n dq u a l i t yf a c t o r s 敭 E x p e r i m e n t a l r e s u l t ss h o wt h
13、a tt h ed e t e c t i o na c c u r a c yo ft h em e t h o dp r o p o s e di nt h i sa r t i c l eh a sb e e ni m p r o v e db yu p t o敭 a n d敭 r e s p e c t i v e l y c o m p a r e d t o t h e s e c o n d b e s t p e r f o r m i n gm e t h o d 敭 B ye x t r a c t i n gm o r ea c c u r a t es t e g on
14、 o i s ea n dr e d u c i n gt h e i m p a c t o f i m a g ec o n t e n to ns t e g a n a l y s i s t h ep r o p o s e dm e t h o da c h i e v e sab e t t e rd e t e c t i o np e r f o r m a n c ec o m p a r e dt ot y p i c a ld e e pl e a r n i n g b a s e dJ P E Gs t e g a n a l y s i sm e t h o d
15、s 敭K e yW o r d s J P E Gi m a g es t e g a n a l y s i s s t e g on o i s e c o n v o l u t i o n a ln e u r a l n e t w o r k d e e pl e a r n i n g 引言隐写术通过将秘密信息嵌入到载体中,从而在不引起第三方怀疑的情况下进行隐蔽通信.由于隐蔽通信的过程很难被他人发现,一些犯罪人员和恐怖分子会利用它来危害社会稳定和国家安全.作为隐写术的对立技术,隐写分析旨在检测隐蔽通信的存在,并在与隐写术的对抗过程中不断发展.随着互联网通信技术和图像处理技术的发展
16、,在互联网中广泛传播的J P E G图像成为了隐写术的合适载体.因此,针对J P E G图像的隐写分析也逐渐成为学术界的重要研究课题.J P E G图像隐写分析的目标是检测一张看似正常的J P E G图像中是否隐藏了秘密信息,判断所使用的隐写方法,估计秘密信息的嵌入位置,提取秘密信息.其中,判断图像是否含有秘密信息是最重要的部分,这也是当前研究的重点.含有秘密信息的图像称为载秘图像,其他的称为载体图像.现有的隐写分析方法可以分为基于人工特征设计的传统隐写分析方法和基于深度学习的隐写分析方法.对于传统隐写分析方法,研究者们首先利用人工设计的高维特征提取方法来捕获图像中由秘密信息嵌入引起的统计异常
17、,然后使用经过训练的分类器来确定图像中是否包含秘密信息.代表性的方法有空域富模型方法(S p a t i a lR i c h M o d e l,S RM)、离散余弦变换残差方法(D i s c r e t eC o s i n eT r a n s f o r m R e s i d u a l,D C T R)、相位感知投影模型(P H a s eAw a r ep R o j e c t i o n M o d e l,P HA RM)和G a b o r滤波器残差方法(G a b o rF i l t e rR e s i d u a l,G F R).然而随着当前隐写技术 的发展,
18、有效的高维特征提取方法越来越难以设计,设计出的特征提取方法也会受限于研究者的领域知识和启发式探索,这限制了隐写分析的发展.随着深度学习的兴起,研究人员发现,神经网络可以学习图像的多层次特征,这样既可以减少启发式的特征设计,也能更好地反映图像的本质特征.因此,研究者们开始将深度学习应用于隐写分析之中,并取得了大量成果.在各种深度网络中,卷积神经网络(C o n v o l u t i o n a lN e u r a lN e t w o r k s,C NN)因为其独有的特性受到了研究者们的重视.卷积操作可以捕获图像中由秘密信息嵌入引起的细微变化,这种细微变化也被称为隐写噪声,这在功能上与传统
19、隐写分析方法中的特征提取步骤类似.池化层和激活函数层也可以用来模拟传统隐写分析方法中的量化和截断步骤.因此,基于卷积神经网络模型的隐写分析方法 已成为图像隐写分析的主流.根据针对隐写算法类型的不同,基于深度学习的隐写分析方法可以分为空域隐写分析方法和J P E G域隐写分析方法.现有的基于深度学习的隐写分析方法大多是针对空域隐写算法所设计的.T AN等 将深度学习应用于隐写分析之中,提出了名为T a n N e t的隐写分析网络.该网络只有层,包括个卷积层和个全连接层.Q I AN等 将传统卷积网络的预处理层替换为固定的高通滤波核来增强隐写信号,提出了一种基于深度学习的隐写分析模型Q i a
20、n N e t.为了避免隐写特征的损失,在Q i a n N e t中使用了平均池化层来代替最大池化层.为了进一步提高隐写分析的性能,XU等 沿用了Q i a n N e t网络架构的特点,提出了X u N e t.考虑到预处理层提取的噪声残差与符号无关,X u N e t在第个卷积层之前使用a b s层来收敛特征图,其检测性能与S RM相当,甚至在某些情况下有所超越.Y E等 将S RM的特征提取部分与深度学习相结合,提出了Y e N e t,其检测精度已经超过基于人工特征设计的传统隐写分析方法.Z HANG等 针对西安电子科技大学学报第 卷h t t p:/j o u r n a l x
21、i d i a n e d u c n/x d x b卷积核以及网络结构进行改进,提出了Z h u N e t.该网络使用可分离卷积代替原有的卷积层来提高隐写信号和图像信号之间的信噪比.此外,还采用了空间金字塔结构来丰富特征的表达,检测效果有了相当大的提升.由于随意调整图像的大小会严重影响图像中的隐写信号,YOU等 以孪生网络为基础,设计了一种新的隐写分析网络S i a S t e g N e t,来实现在不重新训练参数的情况下对多尺度的图像进行隐写分析,在多尺度图像上的检测效果十分优秀.虽然目前在互联网上传播的图像大多是J P E G图像,但相比于空域隐写分析方法,针对J P E G图像的隐
22、写方法要少得多.Z E NG等 提出了一个基于深度学习的J P E G域隐写分析网络,其检测效果与传统方法基本持平.后来,Z E NG等 在之前工作的基础上,通过将J P E G图像转换为空域图像再进行隐写检测的方式,有效地提高了隐写分析的准确率.此外,在X u N e t的基础上,XU 提出了一种名为J X u N e t的J P E G域隐写分析方法.该方法采用了 层全卷积网络来进行隐写分析,通过残差连接来防止梯度爆炸以及隐写特征的消失,其检测效果已经优于传统方法.考虑到之前的隐写分析方法仍然包含了一些手工设计的元素,B O R OUMAN D等 设计了一种基于残差网络的端到端隐写分析模型
23、,名为S R N e t.该网络在空域和J P E G域上都有非常出色的表现.年,S U等 提出了一种基于全卷积网络的端到端隐写分析模型,称为EWN e t.该模型可以在不重复训练的情况下,针对任意大小的J P E G图像进行隐写分析,在J P E G图像隐写分析方面取得了最先进的检测效果.考虑到当前基于深度学习的隐写分析方法通常无法获得选择通道感知(S e l e c t i o n C h a n n e lAw a r e,S C A)的知识,L I U等 将与S C A作用相同的剩余通道空间注意(C h a n n e l S p a t i a lA t t e n t i o n,
24、C S A)模块引入到卷积网络中,来进一步提高模型的隐写分析性能.此外,为了获取多尺度的层次特征表示,文中使用空间金字塔池化来代替全局平均池化.该网络在J P E G隐写分析领域检测效果要优于S R N e t.当前,大多数基于深度学习的隐写分析方法会先提取图像中包含的隐写噪声,再对提取的隐写噪声进行分类.隐写噪声提取的准确度在很大程度上决定了隐写分析的性能.目前大多数方法通过将这两个阶段连接在一起,利用分类模块的误差优化隐写噪声提取模块,以此提高隐写噪声提取的准确度.然而,随着图像质量因子的提高,隐写噪声与图像内容的信号比例会急剧下降,隐写噪声也变得更加难以提取.基于端到端的隐写分析模型,在
25、训练过程中没有为隐写噪声提取模块设定优化目标.当图像的质量因子较高时,这种训练方式可能会限制隐写噪声的提取准确度.为了解决这个问题,文中提出了一种基于有监督训练策略的隐写噪声深度提取模型,以此提高隐写分析的准确率.文中工作的主要贡献如下:()提出了一种基于隐写噪声深度提取的J P E G图像隐写分析方法.该方法可以减少图像内容对隐写分析的影响,准确地提取出隐写噪声,并判断该图像是否为载秘图像.()提出了一种指导隐写噪声深度提取网络的模型评价指标来选择最佳网络,并将其与针对隐写噪声所设计的分类网络相融合,得到完整的隐写分析网络.()在基准数据集上的实验结果表明,针对J UN I WA R D和U
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 噪声 深度 提取 JPEG 图像 分析
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。