一种改进Faster_R-CNN的图像篡改检测模型_田秀霞.pdf
《一种改进Faster_R-CNN的图像篡改检测模型_田秀霞.pdf》由会员分享,可在线阅读,更多相关《一种改进Faster_R-CNN的图像篡改检测模型_田秀霞.pdf(10页珍藏版)》请在咨信网上搜索。
1、 一种改进F a s t e r R-C N N的图像篡改检测模型*田秀霞,刘 正,刘秋旭,李浩然(上海电力大学计算机科学与技术学院,上海 2 0 0 0 9 0)摘 要:随着人工智能的发展,数字图像被广泛应用于各大领域。然而,图像编辑软件的出现导致大量图像受到恶意篡改,严重影响了图像内容的真实性。图像篡改检测的研究不同于通用的目标检测,它需要更加关注图像本身的篡改信息,而这些信息表现形式往往比较微弱,所以检测时需要侧重于学习更丰富的篡改特征。提出一种结合梯度边缘信息和注意力机制的双流F a s t e r R-C NN模型,可以实现不同篡改类型区域的检测定位。双流之一为原色流,利用注意力机制
2、提取图像的表层特征,如亮度对比、篡改边界的视觉差异等。双流之二为梯度流,利用梯度高通滤波器增强真实区域与篡改区域之间的边缘异常特征,使模型更容易发现篡改图像中微弱的篡改痕迹。通过紧凑型双线性池化将原色流和梯度流的特征进行融合。由于公开可用的图像篡改数据集规模较小,基于P A S C A L VO C 2 0 1 2数据集创建了规模为1 0 0 0 0幅的图像篡改检测数据集,用于模型预训练。在C OV E R、C O L UMB I A和C A S I A数据集上的检测结果表明,所提模型的检测精度相比当前最好模型的提高了7.1%9.6%,并在J P E G压缩和图像模糊攻击下表现出了更高的鲁棒性
3、。关键词:图像篡改检测;深度学习;注意力机制;紧凑型双线性池化中图分类号:T P 3 9 1文献标志码:Ad o i:1 0.3 9 6 9/j.i s s n.1 0 0 7-1 3 0 X.2 0 2 3.0 6.0 1 0A n i m a g e t a m p e r i n g d e t e c t i o n m o d e l b a s e d o n i m p r o v e d F a s t e r R-C N NT I AN X i u-x i a,L I U Z h e n g,L I U Q i u-x u,L I H a o-r a n(C o l l e
4、g e o f C o m p u t e r S c i e n c e a n d T e c h n o l o g y,S h a n g h a i U n i v e r s i t y o f E l e c t r i c P o w e r,S h a n g h a i 2 0 0 0 9 0,C h i n a)A b s t r a c t:W i t h t h e d e v e l o p m e n t o f a r t i f i c i a l i n t e l l i g e n c e,d i g i t a l i m a g e s h a v
5、e b e e n w i d e l y u s e d i n v a-r i o u s f i e l d s.H o w e v e r,d u e t o t h e a p p e a r a n c e o f i m a g e e d i t i n g s o f t w a r e,a l a r g e n u m b e r o f i m a g e s h a v e b e e n t a m p e r e d w i t h m a l i c i o u s l y,w h i c h s e r i o u s l y a f f e c t s t
6、h e a u t h e n t i c i t y o f i m a g e c o n t e n t.D i f f e r e n t f r o m t h e g e n e r a l o b j e c t d e t e c t i o n,t h e s t u d y o f i m a g e t a m p e r i n g d e t e c t i o n n e e d s t o p a y m o r e a t t e n t i o n t o t h e t a m p e r i n f o r m a t i o n o f t h e i
7、m a g e i t s e l f,w h i c h i s o f t e n m a n i f e s t e d i n a w e a k f o r m.T h e r e f o r e,t h e d e-t e c t i o n m o d e l n e e d s t o f o c u s o n l e a r n i n g m o r e a b u n d a n t t a m p e r f e a t u r e s.T h i s p a p e r p r o p o s e s a d u a l-s t r e a m F a s t e
8、r R-C NN m o d e l t h a t c o m b i n e s g r a d i e n t e d g e i n f o r m a t i o n a n d a t t e n t i o n m e c h a n i s m,a n d t h e m o d e l c a n r e a l i z e d e t e c t i o n a n d l o c a t i o n o f r e g i o n s w i t h d i f f e r e n t t a m p e r i n g t y p e s.O n e o f t h e
9、 t w o s t r e a m s i s t h e c o l o r s t r e a m,w h i c h u s e s t h e a t t e n t i o n m e c h a n i s m t o e x t r a c t t h e s u r f a c e f e a t u r e s o f t h e i m a g e,s u c h a s b r i g h t n e s s c o n t r a s t,v i s u a l d i f f e r e n c e o f t a m p e r i n g w i t h t h
10、 e b o u n d a r y,e t c.T h e s e c o n d o f t h e t w o s t r e a m s i s a g r a d i e n t s t r e a m.A G r a d i e n t h i g h-p a s s f i l t e r i s u s e d t o e n h a n c e t h e a n o m a l y e d g e f e a t u r e s b e t w e e n t h e r e a l a r e a a n d t h e t a m p e r e d a r e a,m
11、 a k i n g i t e a s i e r f o r t h e m o d e l t o f i n d f a i n t t a m p e-r e d t r a c e s i n t h e t a m p e r e d i m a g e.F i n a l l y,t h e f e a t u r e s o f c o l o r s t r e a m a n d g r a d i e n t s t r e a m a r e f u s e d b y m e a n s o f c o m p a c t b i l i n e a r p o o
12、 l i n g.D u e t o t h e r e l a t i v e l y s m a l l s i z e o f p u b l i c l y a v a i l a b l e i m a g e t a m p e r i n g*收稿日期:2 0 2 1-0 7-0 6;修回日期:2 0 2 2-0 4-1 9基金项目:国家自然科学基金(6 1 7 7 2 3 2 7);国网甘肃省电力公司电力科学研究院横向项目(H 2 0 1 9-2 7 5);上海市大数据管理系统工程研究中心开放课题(H 2 0 2 0-2 1 6)通信地址:2 0 0 0 9 0 上海市上海电力
13、大学计算机科学与技术学院A d d r e s s:C o l l e g e o f C o m p u t e r S c i e n c e a n d T e c h n o l o g y,S h a n g h a i U n i v e r s i t y o f E l e c t r i c P o w e r,S h a n g h a i 2 0 0 0 9 0,P.R.C h i n a C N 4 3-1 2 5 8/T PI S S N 1 0 0 7-1 3 0 X 计算机工程与科学C o m p u t e r E n g i n e e r i n g&S c
14、 i e n c e第4 5卷第6期2 0 2 3年6月 V o l.4 5,N o.6,J u n.2 0 2 3 文章编号:1 0 0 7-1 3 0 X(2 0 2 3)0 6-1 0 3 0-1 0d a t a s e t s,t h e P a s c a l VO C 2 0 1 2 i s u s e d t o c r e a t e a n i m a g e t a m p e r i n g d e t e c t i o n d a t a s e t w h i c h c o n t a i n i n g 1 0 0 1 0 i m a g e s f o r
15、m o d e l p r e-t r a i n i n g.T h e e x p e r i m e n t a l r e s u l t s o n C OV E R,C o l u m b i a,a n d C A S I A d a t a s e t s s h o w t h a t t h e m o d e l p r o p o s e d i n t h i s p a p e r i m p r o v e s t h e d e t e c t i o n a c c u r a c y b y 7.1%t o 9.6%c o m-p a r e d t o t
16、 h e l a t e s t m o d e l s,a n d e x h i b i t s h i g h e r r o b u s t n e s s u n d e r J P E G c o m p r e s s i o n a n d i m a g e b l u r a t-t a c k s.K e y w o r d s:i m a g e t a m p e r i n g d e t e c t i o n;d e e p l e a r n i n g;a t t e n t i o n m e c h a n i s m;c o m p a c t b i
17、 l i n e a r p o o l i n g1 引言数字图像在我们的日常生活中发挥着越来越重要的作用,然而随着图像编辑技术的发展,人们可以轻易地改变图像内容,这可能会传达一些错误的信息,因此检测出图像中的篡改部分,对于保证图像内容的安全性和真实性至关重要。常见的篡改类型 有2种:复 制-粘 贴(C o p y-M o v e)和 拼 接(S p l i c i n g)1。复制-粘贴是将部分图像区域复制到同一幅图像的其他区域;拼接是将部分图像区域粘贴到其他图像上。数字图像取证研究与篡改检测密切相关,通过数字图像取证研究建立的工具和方法可以用来检测图像是否被篡改。这些工具和方法可以分析图
18、像的特征和元数据,检测图像是否被修改,是否存在二次编辑等篡改行为,从而保证图像的完整性和可信度。图像篡改检测的研究,用于检测被篡改图像中的低层次篡改伪影,研究方法主要包括双联合图像专家组J P E G(J o i n t P h o t o g r a p h i c E x p e r t s G r o u p)压缩、颜色滤波阵列C F A(C o l o r F i l t e r A r r a y)分析和局部噪声分析。文献2 提出了一个概率模型来估计不同区域的离散余弦变换D C T(D i s c r e t e C o s i n e T r a n s f o r m)系数和量化
19、因子,在假设篡改区域干扰了这些模式的前提下,基于C F A分析了相机内部滤波模式引入的低层次统计。文献3 提出了一种高斯混合模型对C F A存在区域(真实区域)和C F A缺失区域(篡改区域)进行分类。随着深度学习的发展,深层卷积神经网络已经能够用于图像取证。文献4 首次尝试在图像篡改检测任务上使用基于卷积神经网络的中值滤波取证。文献5 通过训练全卷积神经网络F C N(F u l l y C o n v o-l u t i o n N e t w o r k s)预测给定图像的篡改区域。文献6 在文献4 的基础上以图像块作为输入,网络的最终输出是对图像块是否篡改进行分类。文献7提出了一种叠加
20、式自动编码器,利用篡改图像的上下文关联信息进行模型训练。文献8 将传统方法与深度学习相结合,首先手工提取预先设定好的专一特征,再将这些特征作为深度神经网络的训练输入数据。然而,现有算法存在2个待改进的问题:(1)传统方法的检测效果主要依赖于手工提取的单一特征,这限制了模型的泛化能力;(2)现有算法大多数聚焦于图像级别的检测,没有利用篡改边缘的浅层信息,导致检测准确率较低。为了解 决 上 述2个 问 题,本 文 以F a s t e r R-C NN9为基本框架,提出了一种结合梯度边缘信息和注意力机制的双流F a s t e r R-C NN模型。本文的主要工作包括:(1)在原色流的区域预测网络
21、R P N(R e g i o n P r o p o s a l N e t w o r k)中引入卷积注意力模块C B AM(C o n v o l u t i o n B l o c k A t t e n t i o n M o d u l e)1 0,用 来创建一个新的C B AM-R P N网络,以增强模型对特征的类间区分能力;(2)引入梯度流,利用从梯度滤波器提取的篡改边缘特征,计算边缘点4个方向上的像素值偏差来确定异常边缘点,避免了模型只关注于图像级别的篡改痕迹,实验结果证明了其有效性;(3)基于P A S C A L VO C 2 0 1 21 1数据集创建了一个新合成的篡改
22、图像数据集,用于模型预训练,有效提高了模型性能;(4)在3个标准篡改数据集上进行评估,结果表明本文模型的检测性能优于现有的一些最新算法的。2 相关工作2.1 篡改检测中的边缘特征边缘是数字图像最主要的特征之一,人们识别图像中的目标区域主要是依靠边缘。边缘检测是对灰度级间断的检测,边缘信息是纹理特征和形状特征的重要信息源,也是学习图像内容所依赖的最重要特征。数字图像的边缘指的是图像中灰度值发生突变的像素集合,它存在于目标与目标、目标与背景之间,一般常用导数来描述和检测灰度值的突变1 2。图像内容在篡改过程中,不同物体的边缘都会留下篡改痕迹,这是数字图像篡改检测中的1301田秀霞等:一种改进F a
23、 s t e r R-C NN的图像篡改检测模型重要线索。如今,越来越多的研究人员通过研究边缘邻近一阶或二阶方向导数变化规律来识别图像中灰度值不连续或变化较为剧烈的像素点,并将这些突变信息作为篡改检测模型的主要学习特征,以此来提高模型检测性能。文献1 3 针对已有图像篡改检测方法分类精度不高的问题,提出了一种篡改边缘两侧和篡改区域内外不一致性引导的重点关注篡改区域与篡改边缘的卷积神经网络方法,还专门设计了一个篡改边缘提取分支,借助一个33大小的梯度卷积核重点提取篡改区域与非篡改区域之间的边缘轮廓,通过学习物体边缘两侧的不一致性增强篡改特征,以提升篡改区域定位的准确度。文献1 4 针对小目标篡改
24、图像检测精度低的难题,设计了一种以边缘检测作为主要人工特征提取手段的传统图像篡改检测方法,利用P r e w i t t方向导数近似算子1 5,检测篡改图像边缘,通过转换图像检测空间为参数空间完成模板匹配与匹配值加权,结合图像各角点坐标与亚像素坐标,判定伪造区域与真实区域,实现图像篡改检测。在公开图像数据集上的实验结果表明,该方法具有显著的稳定性与有效性。受上述研究启发,本文模型将边缘特征引入到基于深度学习的篡改检测任务中,通过采用更有效的边缘检测方法来增加模型对篡改区域与非篡改区域边界处像素特征的重点关注与学习。2.2 注意力机制在人类视觉中,注意力通常让人们关注整个场景的局部区域,过滤掉无
25、关信息,增强重要信息。作为一个简单而有效的注意力模块,卷积块注意力模块C B AM(C o n v o l u t i o n B l o c k A t t e n t i o n M o d-u l e)依赖于通道注意力模块C AM(C h a n n e l A t t e n-t i o n M o d u l e)和空间注意力模块S AM(S p a t i a l A t-t e n t i o n M o d u l e)。这2个模块分别考虑了全局信息 和 远 距 离 信 息,聚 焦 于 通 道 和 空 间 轴 上 的“Wh a t”和“Wh e r e”方面的重要位置。通道注意
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一种 改进 Faster_R CNN 图像 篡改 检测 模型 田秀霞
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。