多层次特征融合的对抗网络图像隐写_张震.pdf
《多层次特征融合的对抗网络图像隐写_张震.pdf》由会员分享,可在线阅读,更多相关《多层次特征融合的对抗网络图像隐写_张震.pdf(7页珍藏版)》请在咨信网上搜索。
1、基金项目:国家自然科学基金(61772327,61432017);迁安新工程国家大数据协作安全技术开放项目(QAX-201803)收稿日期:2021-05-20 修回日期:2021-06-07 第 40 卷 第 4 期计 算 机 仿 真2023 年 4 月 文章编号:1006-9348(2023)04-0323-07多层次特征融合的对抗网络图像隐写张 震,王 真(上海电力大学计算机科学与技术学院,上海 200000)摘要:针对基于神经网络的图像隐写方法无法同时捕捉载体图像的纹理信息和语义特征,导致存在大量的信息丢失的问题,提出一种基于多层次特征融合的对抗网络图像隐写方法。通过在生成网络中添加多
2、尺度卷积与池化操作对图像进行特征提取,使用跳跃连接融合多层次特征信息,利用隐写分析性能更先进的判别网络与生成网络进行对抗学习,生成嵌入修改图并模拟生成隐写图像。实验结果表明,在高维特征隐写分析与深度学习隐写分析检测下,该方法均具有更高的隐写安全性。与目前所提出的基于深度学习的隐写方法相比,综合安全性能提升 3.8%。关键词:图像隐写;生成对抗网络;多层次特征融合;多尺度卷积;信息丢失;安全性中图分类号:TP 391 文献标识码:BAdversarial Network Image Steganography Based onMulti-level Feature FusionZHANG Zhe
3、n,WANG Zhen(College of Computer Science and Technology,Shanghai electric power University,Shanghai 200000,China)ABSTRACT:Aiming at the problem that image steganography based on neural network can not capture the textureinformation and semantic features of the cover image at the same time,which leads
4、 to a large amount of informationloss,this paper proposes a method of anti network image steganography based on multi-level feature fusion.Firstly,multi-scale convolution and pooling operations were added to the generative network to extract the features of the ima-ges.Then,the multi-level feature i
5、nformation was fused by jumping join.The discriminant network with more ad-vanced performance of stegage analysis was used for adversation learning with the generative network to generate em-bedded modified graphs and simulate the generation of stego images.Experimental results show that this method
6、 hashigher steganography security under both high-dimensional feature steganography analysis and deep learning steg-anography analysis detection.Compared with the proposed stegography method based on deep learning,the compre-hensive security performance is improved by 3.8%.KEYWORDS:Image steganograp
7、hy;Generative adversarial network;Multi-level feature fusion;Multi-scale convolu-tion;Information loss;Security1 引言图像隐写术是一种将秘密信息隐藏在载体图像中并隐蔽通信行为的技术,是信息隐藏的重要分支,逐渐成为信息安全领域的研究热点1,2。现代隐写术一直被描述为具有保真度约束的信源编码问题。通过量化单个像素的修改代价,计算总嵌入失真最小化,进一步降低隐写术的统计可检测性。在实 际 隐 写 方 案 中,可 以 利 用 伴 随 式 矩 阵 编 码(STC)3来逼近理论有效负载失真边界。
8、因此,实际隐写术的剩余工作就是设计一个合理的代价损失函数,从而为每个变化的图像元素提供一个精确的失真度量。一个更合理的失真函数会带来更好的隐写安全性,因此如何设计一个更加合理的代价损失函数成为一个重要的研究课题4-6。隐写分析作为与隐写术功能相反的技术,用于检测载体中是否含有秘密信息。尽管一些隐写分析方法通过结合监督学习方案和手工制作的高维统计特征或选择信息感知技术,如空间富模型 SRM7及其变体 max-SRMd28可以显著提高检测性能,但精心设计的失真函数依旧可以获得很好的323隐蔽性。并且随着深度学习的发展,研究人员试图将神经网络引入隐写分析领域,利用手工精心制作的网络结构并结合隐写分析
9、特征领域的知识,从而实现更好的隐写检测性,这对隐写术提出了重大挑战。最近提出基于深度学习的隐写方案,通过交替更新 GAN(Generative Adversarial Network)中的编码-解码网络来分别实现秘密信息的嵌入和提取9-12,然而由于无法保证秘密信息的无差错恢复,它们的应用一直受到限制。与上述工作不同,Tang 等13基于现有的自适应隐写算法的思想,提出自动隐写失真代价学习框架 ASDL-GAN,这是生成对抗网络自动学习图像隐写失真的首次应用,它改变了传统的根据先验知识手工设计隐写失真函数的观念,从而减少了人为设计的因素,为生成对抗网络在隐写领域的应用开拓了新的方向。但是由于这
10、是生成对抗网络在该领域的初次探索,在时间复杂度和隐写安全性上仍存在很大的改进空间。Yang 等14在此框架的基础上进行改进,并使用 Tanh 激活函数加快训练速度,使得抗隐写分析能力显著提高。然而以上基于生成对抗神经网络的图像隐写方案均存在一个明显的不足,他们均忽略了网络在生成隐写图像时的计算冗余度高、局部信息丢失严重、分辨率下降等问题。由于隐写操作对像素的修改很小,使用大步伐的卷积操作容易导致神经网络忽略图像细微的变化,从而极大地影响生成网络对隐写图像的生成。基于上述讨论,本文提出多层次特征融合的生成对抗网络图像隐写方法,弥补网络在特征提取过程中的信息丢失问题,进而使得生成的隐写图像隐蔽性更
11、强,全面提高图像隐写安全性。本文主要贡献如下:1)简化生成对抗网络结构,实现图像隐写失真代价自学习,使得生成隐写图像尽可能接近真实标签,提升图像生成效率;2)增强特征提取准确性,融合生成网络中多层次特征信息,有效地增加生成网络对载体图像细粒度和粗粒度信息的感知,解决生成网络中局部特征信息丢失问题,进一步提升隐写性能;3)引入更强的隐写分析器作为判别网络,提高判别网络的有效性,使网络训练的参数能更好的表达失真度量,增强生成对抗网络的整体性能。2 相关研究在基于 GAN 的图像隐写模型中,嵌入秘密信息的失真代价可以通过两个子网相互竞争的对抗网络来学习。文献13首次提出了一种基于 GAN 的自动隐写
12、失真学习框架(称为 ASDL-GAN)。在此框架下,利用 25 组卷积构建生成网络,将 XuNet15作为判别网络,之后通过构建合理的损失函数和嵌入模拟器使 GAN 可以自动学习隐写失真代价。训练 GAN 模型收敛后,将得到的失真函数结合 STC 编码方法完成实际的秘密信息嵌入和提取过程。ASDL-GAN 隐写方案的优势在于首次提出将概率图转化为代价图并构建损失函数使得代价可以进行反向传播。与此同时该方案仍存在以下的不足。1)TES 嵌入模拟器采用了需要预训练的神经网络,该网络耗费时间长。2)由 25 层卷积层构成的生成网络无法有效的捕捉图像纹理细节。因此,该隐写方案仍存在提升的空间。文献14
13、在此基础上,进一步做了如下的改进,他们提出使用 Tanh 激活函数代替 TES 神经网络模拟信息的嵌入的方法(称为 UT-GAN),改善了 ASDL-GAN 方案中 TES 嵌入模拟器耗费时长和需要预训练的问题。Tanh 嵌入模拟器根据(1)进行设计。其中给定修改概率 pi,j(pi,j(0,0.5)与秘密信息随机数 si,j(si,j0,1)作为输入,嵌入模拟器输出相应的修改值 mi,j(mi,j+1,0,-1)。mi,j=12Tanh(pi,j-2 (1-si,j)-Tanh(pi,j-2 si,j)(1)与此同时 Yang 还提出了一种基于 U-Net16结构的生成网络,该生成网络相比于
14、 ASDL-GAN 的生成网络具有更好的边缘轮廓信息捕捉能力。得益于上述两点改进,Yang 提出的 UT-GAN 方案具有更好的隐写安全性。但是 UT-GAN仍有些许不足,因为根据原始 U-Net 构造的生成网络仍然存在细粒度信息丢失的问题,这会导致失真代价训练忽视图像细致的纹理信息,从而使得失真代价无法得到充分训练,进一步影响隐写的隐蔽性。因此本文对原始 U-Net 结构进行多层次特征融合,重构生成网络实现对载体图像粗粒度和细粒度的信息补偿作用,使用经过信息补偿的对抗网络,生成载体图像每个像素的代价损失,最终获得更好的隐写鲁棒性和隐写隐蔽性。3 多层次特征融合的对抗网络图像隐写方法3.1 总
15、体介绍本文设计了一个由两部分组成的总体失真代价计算模型:多层次特征融合结构的隐写图像生成网络和代价更新判别网络。在隐写图像生成网络中,首先在收缩路径各层嵌入卷积与池化操作改进网络结构,在减少冗余计算与参数量的基础上防止梯度消失;之后通过在扩展路径中添加连接层融合多层次特征,聚集不同层次特征的表达信息,对网络进行信息补偿;代价更新判别网络使用设计好的判别网络、嵌入模拟器以及损失函数配合生成网络进行代价的迭代更新,从而获得载体图像中每个像素的代价损失。在设计好总体失真代价计算模型后,将训练得到的像素代价损失,最终利用嵌入模拟器生成隐写图像。总体框架如图 1 所示。3.2 重构隐写图像生成网络生成网
16、络由收缩路径和扩展路径组成。由于网络浅层纹理信息丰富、图像分辨率高,但语义性较低、噪声较多。而深层信息语义性强,但对细节信息感知能力差。因此本文通423图 1 本文网络整体结构图过多层次特征融合将对应层的特征信息进行连接,使得生成网络可以同时捕捉到浅层的纹理信息和深层的语义信息。ASDL-GAN 和 UT-GAN 中的生成网络在卷积过程中均存在信息丢失的问题,忽略了通道间的信息表达。其中 ASDL-GAN(如图 2(a)使用多个卷积层连接很难准确捕捉图像深层语义信息,UT-GAN(如图 2(b)引进 U 型网络结构,但忽略了图像浅层纹理信息。图 2(a)ASDL-GAN 生成网络结构因此,上述
17、网络结构均存在局部信息丢失问题,为进一步获得不同层次的语义特征,本文提出的重构生成网络结构图 2(b)UT-GAN 生成网络结构(如图 3),使用多层次特征融合技术,使得生成器网络在捕捉图像深层语义信息的基础上,对图像的不同维度的特征信息进行多层次融合,从而充分捕捉图像各个层次的信息,这是改善网络性能的关键。因此,本文构建的多层次特征融合生成网络模型可以获得更好的整体性能,具体如下:1)生成网络由 M(M=16)个操作组组成,前 8 组组成收缩路径,每组由尺寸为 3、步长为 1 的卷积层、批处理归一化层(Batch Normalization)、Leaky-ReLU 激活函数、尺寸为 2,步长
18、为 2 的最大池化层组成,经过 8 层收缩路径后得到 12811 的特征图;后 8 组组成扩展路径,每组由步长为 2、尺寸为3 的反卷积层、ReLU 激活函数、批处理归一化层(Batch Nor-malization)、Dropout、Concat 操作、尺寸为 1、步长为 1 的卷积层组成,得到与输入图像大小相同的特征图。2)扩展路径添加 Concat 操作,跳跃连接对应收缩层中的通道数不同的多尺度特征,实现多层次特征信息融合。扩展路径第 n(n9,16)层融合收缩路径中第(M-n+1)层卷积后的特征(单层)与第(M-n)层池化处理后的特征(双层)、第(M-n)层卷积得到特征,最终实现(3
19、层)多层次特征融合(如图 3)。因为第 3 层特征与前两层的特征大小不同,因此需要添加尺寸为 1,步长为 2 的卷积层将特征尺度归一化。如图 3 所示,第 9 层中添加连接层跳跃连接融合第 8 层卷积后的特征、第 7 层池化后的特征以及第 7 层卷积得到特征经过步长为 2 的卷积得到的特征。3)扩展路径中添加 Dropout 操作,防止过拟合,提高模型泛化能力。4)多层次特征融合后特征通道数增加,为减少运算量,在连接层之后通过尺寸为 1、步长为 1 的卷积层减少通道数。3.3 代价更新判别网络判别网络和生成网络共同配合损失函数完成对抗网络523图 3 Proposed-GAN 生成网络结构代价
20、更新。判别网络在本质上充当了隐写分析的作用,用作隐写图像和载体图像的区分。也就是说,现有的基于神经网络的隐写分析器均可以作为判别网络。理论上说,更强的判别网络通过对抗训练可以使隐写更加安全,通过生成网络与判别网络相互竞争,可以有效地训练整个网络。ASDL-GAN、UT-GAN 均使用 XuNet 作为判别网络,该判别网络是Xu 等人在 2016 年提出的隐写分析器,虽然它与 SRM 高维特征隐写分析器相当的性能,但后续提出的隐写分析器均具有更好的隐写分析性能,因此本文使用性能更好的隐写分析网络,进而提高整个生成对抗网络的隐写安全性。经过多次对比实验,最终使用 YeNet17隐写分析器作为本文的
21、判别网络。由于隐写的本质是对图像的像素进行非常轻微的修改,因此图像原始的内容会极大的影响隐写分析器的判断。所以,使用高通滤波滤除图像的低频内容,保留高频成分,提高“信噪比”,从而可以提高判别网络的鉴别有效性,使训练参数可以更好的表示失真度的测量。从 SRM 中引入了 12 个高通滤波器,对载体图像和隐写图像进行残差过滤,经过高通滤波后的残差可以对隐写操作更为敏感并且可以加快网络收敛速度。在训练过程中,生成网络通过调整参数抵抗判别网络的隐写分析,判别网络通过调整参数来判断生成网络的结果。当过程收敛时,最终的参数用于计算每个像素的嵌入失真代价。3.4 损失函数损失函数是用来调节生成网络和判别网络中
22、神经元更新的影响因素。本文损失函数 loss_total 由生成网络的损失与判别网络的损失两部分组成。判别网络损失 loss_dis 结合二值交叉熵损失计算即loss_dis=-2i=1yilog(xi)(2)其中 x 为判别网络的预测值,y 为目标输出。生成网络损失具体计算如下:1)通过生成网络的输出 pi,j计算像素 xi,j加 1、减 1 与不变的概率 p+1i,j、p-1i,j与 p0i,jp0i,j=1-pi,j(3)p-1i,j=p+1i,j=pi,j/2(4)2)计算载体图像中嵌入有效载荷的容量 CC=Hi=1Wj=1-p+1i,jlog2p+1i,j-p0i,jlog2p0i,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多层次 特征 融合 对抗 网络 图像
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。