可信人工智能白皮书.pdf
《可信人工智能白皮书.pdf》由会员分享,可在线阅读,更多相关《可信人工智能白皮书.pdf(38页珍藏版)》请在咨信网上搜索。
1、可信人工智能白皮书可信人工智能白皮书 中国信息通信研究院 京东探索研究院 中国信息通信研究院 京东探索研究院 2022021 1年年7 7月月 N No o.20210.202106 6 前前 言言 当前,新一代人工智能技术迅猛发展,并向社会各个领域加速渗透,给人类生产生活带来了深刻变化。人工智能在带来巨大机遇的同时,也蕴含着风险和挑战。习近平总书记在 2018 年 10 月主持中央政治局第九次集体学习时强调,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”。增强人工智能使用信心,推动人工智能产业健康发展已经成为重要关切。发展可信人工智能正在成为
2、全球共识。2019 年 6 月,二十国集团(G20)提出“G20 人工智能原则”,强调要以人为本、发展可信人工智能,这一原则也得到了国际社会的普遍认同。欧盟和美国也都把增强用户信任、发展可信人工智能放在其人工智能伦理和治理的核心位置。未来,将抽象的人工智能原则转化为具体实践,落实到技术、产品和应用中去,是回应社会关切、解决突出矛盾、防范安全风险的必然选择,是关系到人工智能长远发展的重要议题,也是产业界急需加快推进的紧迫工作。无论是回顾可信人工智能的背景和历程,还是展望新一代人工智能的未来,本白皮书认为人工智能的稳定性、可解释性、公平性等都是各方关注的核心问题。立足当下,本白皮书从如何落实全球人
3、工智能治理共识的角度出发,聚焦于可信人工智能技术、产业和行业实践等层面,分析了实现可控可靠、透明可释、隐私保护、明确责任及多元包容的可信人工智能路径,并对可信人工智能的未来发展提出了建议。由于人工智能仍处于飞速发展阶段,我们对可信人工智能的认识还有待进一步深化,白皮书中存在的不足之处,欢迎大家批评指正。目目 录录 一、可信人工智能发展背景.1(一)人工智能技术风险引发信任危机.1(二)全球各界高度重视可信人工智能.2(三)可信人工智能需要系统方法指引.7 二、可信人工智能框架.8 三、可信人工智能支撑技术.12(一)人工智能系统稳定性技术.12(二)人工智能可解释性增强技术.14(三)人工智能
4、隐私保护技术.15(四)人工智能公平性技术.17 四、可信人工智能实践路径.18(一)企业层面.18(二)行业层面.25 五、可信人工智能发展建议.27(一)政府层面加快推动我国人工智能监管及立法进程.27(二)技术研究层面需全面做好体系化前瞻性布局.27(三)企业实践层面需匹配业务发展实现敏捷可信.28(四)行业组织层面需搭建交流合作平台打造可信生态.28 参考文献.30图图 目目 录录 图 1 可信人工智能相关论文数量图.4 图 2 企业开展可信人工智能实践情况.6 图 3 可信人工智能核心内容.8 图 4 可信人工智能总体框架.9 图 5 全球 84 份人工智能伦理文件中的主要关键词.1
5、1 表表 目目 录录 表 1 数据集中常见的固有偏见.24 可信人工智能白皮书 1 一、可信人工智能发展背景 人工智能作为新一轮科技革命和产业变革的重要驱动力量,正在对经济发展、社会进步、国际政治经济格局等诸方面产生重大而深远的影响。2020 年人工智能产业保持平稳增长,根据 IDC 测算,全球人工智能产业规模为 1565 亿美元,同比增长 12%;根据中国信息通信研究院测算,我国产业规模达到约 434 亿美元(3031 亿人民币),同比增长 15%。人工智能在带来巨大机遇的同时,也蕴含着风险和挑战。习近平总书记高度重视人工智能治理工作,强调要“确保人工智能安全、可靠、可控”,倡议推动落实二十
6、国集团人工智能原则,引领全球人工智能健康发展。(一)人工智能技术风险引发信任危机(一)人工智能技术风险引发信任危机当前,人工智能应用的广度和深度不断拓展,正在成为信息基础设施的重要组成。但在此过程中,人工智能也不断暴露出一些风险隐患,主要体现在以下几个方面:算法安全导致的应用风险。以深度学习为核心的人工智能技术存在脆弱和易受攻击的缺陷,使得人工智能系统的可靠性难以得到足够的信任。如优步(Uber)自动驾驶汽车未能及时识别路上行人而致其死亡;据美国财富杂志报道,一家人工智能公司利用 3D 面具和合成照片实施欺骗攻击,成功破解多国的人脸识别系统1。黑箱模型导致算法不透明。深度学习具备高度复杂性和不
7、确定性,从而容易引发不确定性风险。由于人们无法直观地理解决策背后的原1https:/ 可信人工智能白皮书 2 因,人工智能与传统行业的进一步融合受到阻碍。如美国德州某学校使用人工智能系统判断老师教学水平,由于系统不能解释争议性决策的判断依据,遭到该校教师的强烈抗议,最终导致系统下线。数据歧视导致智能决策偏见。人工智能算法产生的结果会受到训练数据的影响,因此,如果训练数据中存在偏见歧视,算法会受到歧视数据的影响,并进一步固化数据中存在的偏见歧视,导致依托人工智能算法生成的智能决策形成偏见。如美国芝加哥法院使用的犯罪风险评估系统(COMPAS)被证明对黑人存在歧视2。系统决策复杂导致责任事故主体难
8、以界定。人工智能的系统的自动化决策受众多因素影响,使得责任主体难以界定。对于自动驾驶、机器人等应用安全事故频发,法学专家表示,从现行法律上看人工智能本身还难以成为新的侵权责任主体,但人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,仍需进一步探讨3。数据滥用导致隐私泄露风险。生物识别信息的频繁使用使得个人隐私数据泄露的可能性增大,数据一旦丢失会造成极大的安全风险。如 ZAO 通过用户协议条款违规收集人脸数据4,加重了人们对隐私数据滥用可能造成刷脸支付和身份认证相关安全风险的担忧。(二)全球各界高度重视可信人工智能(二)全球各界高度重视可信人工智能面对人工智能引发的全球
9、信任焦虑,发展可信人工智能已经成为2https:/ 3http:/ 4http:/ 可信人工智能白皮书 3 全球共识。2019 年 6 月,二十国集团(G20)提出“G20 人工智能原则”,在其五项政府建议中明确提出的“促进公共和私人对人工智能研发的投资力度,以促进可信赖的人工智能(Trustworthy Artificial Intelligence)的创新;需创建一个策略环境,为部署值得信赖的人工智能系统开辟道路。”已经成为国际社会普遍认同的人工智能发展原则。学术界首先推开了可信人工智能的大门。中国科学家何积丰院士于2017年11月香山科学会议第S36次学术研讨会首次在国内提出了可信人工智
10、能的概念,即人工智能技术本身具备可信的品质。从学术研究角度,可信人工智能研究范畴包含了安全性、可解释、公平性、隐私保护等多方面内容。2020 年可信人工智能研究论文数量相比2017 年增长近 5 倍;美国国防高级研究计划局发布学术报告可解释人工智能并开展相关资助活动,致力于推动可信人工智能发展;顶级会议 AAAI 连续 2 年组织可解释人工智能(Explainable AI)专题研讨,并一直保持火热的研究态势。同时,围绕着机器学习公平性、可问责和透明性的研究已经形成“FAccT ML”(Fairness,Accountability and Transparency in Machine Le
11、arning)社区,在此基础上,ACM 从18 年开始连续 4 年发起学术会议 ACM FAccT(ACM Conference on Fairness,Accountability,and Transparency)。可信人工智能白皮书 4 来源:Web of Science 官网 图 1 可信人工智能相关论文数量图5 政府把增强用户信任、发展可信人工智能,放在其人工智能伦理和治理的核心位置。2020 年欧盟的人工智能白皮书1提出了人工智能“可信生态系统”,旨在落实欧洲人工智能监管框架,提出对高风险人工智能系统的强制性监管要求。同年 12 月,美国白宫公布了一项名为促进政府使用可信人工智能的
12、行政命令6,该命令为联邦机构使用人工智能制定指导方针,旨在促进公众接受并信任政府在决策中使用人工智能技术。标准化组织布局可信人工智能标准。ISO/IEC JTC1 SC42 专门设置了 WG3 可信人工智能工作组,目前已发布信息技术 人工智能 人工智能的可信度概述,正在推进信息技术 人工智能 评估神经5 中国信息通信研究院根据 Web of Science 检索整理。6https:/ 可信人工智能白皮书 5 网络的鲁棒性系列研究工作。国内成立全国信息技术标准化技术委员会人工智能分技术委员会(SAC/TC 28/SC 42),同步推进相关研究。2020 年 11 月,全国信息安全标准化技术委员会
13、 TC260 工作组发布了网络安全标准实践指南人工智能伦理道德规范指引 意见征求稿,针对可能产生的人工智能伦理道德问题,提出了安全开展人工智能相关活动的规范指引。企业积极探索实践可信人工智能。IBM Research AI 于 2018 年开发多个人工智能可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。这些工具已捐献给 Linux Foundation 并成为了开源项目。微软、谷歌、京东、腾讯、旷视等国内外企业也在积极开展相关实践工作,图 2 梳理了部分企业在可信人工智能方面的探索情况。可信人工智能白皮书 6 来源:资料整理 图 2 企业开展可信人
14、工智能实践情况7结合各方的表述,本白皮书认为“可信”反映了人工智能系统、产品和服务在安全性、可靠性、可解释、可问责等一系列内在属性的7 根据公开资料整理。可信人工智能白皮书 7 可信赖程度,可信人工智能则是从技术和工程实践的角度,落实伦理治理要求,实现创新发展和风险治理的有效平衡。未来,随着人工智能技术、产业的不断发展,可信人工智能的内涵还将不断丰富。(三)可信人工智能需要系统方法指引(三)可信人工智能需要系统方法指引当前对可信人工智能的要求及评价方法实操性不断加强。各国都意识到,伦理等“软性”约束如果缺乏相应落地机制,就容易出现道德漂白(ethics washing)的情况8,因此需要操作性
15、更强的手段。2021年 2 月,德国发布了人工智能云服务一致性评价目录 AI Cloud Service Compliance Criteria Catalogue(AIC4)9,从实操层面定义了评价云环境下人工智能的可信程度。4 月,欧盟委员会公布了“制定人工智能统一规则(人工智能法)”并修订了相关立法提案,提出了一种平衡和相称的人工智能横向监管方法,围绕民生、人民基本权益划分了人工智能的四级风险框架,并规定了相应的处罚方式,意图通过法律手段提高市场的信任度,推动人工智能技术的推广和落地,推进人工智能可信。5 月,美国国家标准与技术研究院提出了评估人工智能系统中用户信任度的方法,并发布 人工
16、智能和用户信任(NISTIR 8332)10,从实操层面定义了评价人类使用人工智能系统时的信任体验。6月,美国国防部致力于通过教育和培训建立可信赖的人工智能能力,通过系统工程和风险管理方法在整个采购生命周期实施监管。8https:/ 10https:/www.nist.gov/news-events/news/2021/05/nist-proposes-method-evaluating-user-trust-artificial-intelligence-systems 可信人工智能白皮书 8 人工智能立法进程不断加快,但具体细则仍需进一步明确;同时产业界探索可信人工智能也逐步迈入深水区。总
17、体上看,针对可信人工智能的实践仍处于相对分散的状态,缺少一套体系化的方法论,以实现全面贯彻相关治理要求,体系化落实相关操作的实践性指引。基于此,本白皮书在全面梳理人工智能伦理约束、规范立法及优秀实践的基础上,提出“可信人工智能框架”,作为落实人工智能治理要求的一整套方法论,从产业维度出发,围绕企业和行业的可信实践进行了深入剖析,致力于在人工智能治理和产业实践之间搭建起连接的桥梁。来源:中国信息通信研究院 图 3 可信人工智能核心内容 企业可信实践层面,框架以企业人工智能系统生命周期为参照,结合五项可信特征要求,针对周期各个环节提出了实操性要求,并对企业可信文化及可信管理机制建设提出了细节性建议
18、。行业可信实践层面,框架从标准、评估及保障三个维度进行了详细阐述。二、可信人工智能框架 可信人工智能从学术界提出,到各界积极研究,再到产业界开始可信人工智能白皮书 9 落地实践,其内涵也在逐步的丰富和演进。本白皮书认为,可信人工智能已经不再仅仅局限于对人工智能技术、产品和服务本身状态的界定,而是逐步扩展至一套体系化的方法论,涉及到如何构造“可信”人工智能的方方面面。图 4 给出了可信人工智能的总体框架。来源:中国信息通信研究院 图 4 可信人工智能总体框架 可信人工智能是落实人工智能治理的重要实践,所遵循的可信特征与人工智能伦理和相关法律法规等要求一脉相承,均将以人为本作为其要求。从治理方式上
19、来看,相较于伦理从宏观层面做出指引、法律以结果为导向做出约束,可信人工智能深入到企业内部管理、研发、运营等环节,以及行业相关工作,将相关抽象要求转化为实践所需的具体能力要求,从而提升社会对人工智能的信任程度。可信特征层面。通过对全球范围内已经发布的 84 份政策文件按照词频进行梳理,可以看到当前人工智能治理原则已经收敛在透明性、安全性、公平性、可问责、隐私保护等五个方面2。尽管不同的组织可信人工智能白皮书 10 由于其文化背景、业务性质及管理制度等存在差异,对于这些共同原则的理解及实施方法有不同倾向,但从产业维度来看,以上五项共识的核心理念均是围绕如何构建多方可信的人工智能而细化提出的。这五项
20、共识对于如何增强供给侧和需求侧双方使用人工智能的信任,协助监管机构培育可信的健康产业生态提供了指引。本白皮书参考全球五项共识(图 5)、中国人工智能产业发展联盟(AIIA)倡议以及发布的人工智能行业自律公约3和可信 AI 操作指引4,总结提出可靠可控、透明可释、数据保护、明确责任、多元包容等五项可信特征要素,用以指引实践可信人工智能时所需具备的操作能力。可信人工智能白皮书 11 来源:资料整理 图 5 全球 84 份人工智能伦理文件中的主要关键词11 可信支撑技术层面,围绕着可靠可控、透明可释、数据保护、明确责任和多元包容等可信特征的要求,以理论研究和技术创新为核心 11 引自人工智能原则的全
21、球格局(The global landscape of AI ethics guidelines),中国信息通信研究院整理。可信人工智能白皮书 12 抓手,从而弥补当前技术的不足。例如研究可解释的新一代人工智能算法、具备隐私保护能力的隐私计算技术等,这需要学术界和工业界积极的探索。企业可信实践层面,人工智能在社会上的广泛应用依赖于企业等主体将技术商品化,因此企业在可信人工智能方面的实践是可信方法论中的关键一环。应该意识到没有完美的技术,关键在于如何正确使用技术:一方面需要培育可信文化和建设可信管理制度等;另一方面需要在人工智能系统研发和使用的整个生命周期中贯彻可信特征的要求,从产品源头确保“可
22、信”品质。行业可信实践层面,可信人工智能需要整个行业的参与和实践。主要包括可信人工智能标准体系的建设,可信人工智能评估测试,以及人工智能可信保障等,通过构建保险等社会化方式分担人工智能技术和系统应用带来的风险。三、可信人工智能支撑技术 随着社会各界对人工智能信任问题的不断关注,安全可信的人工智能技术已成为研究领域的热点5,6。研究的焦点主要是提升人工智能系统稳定性、可解释性、隐私保护、公平性等,这些技术构成了可信人工智能的基础支撑能力。(一)人工智能系统稳定性技术(一)人工智能系统稳定性技术 人工智能系统面临着特有的干扰,这些干扰来自于针对数据和系统的多种攻击方式,包括中毒攻击、对抗攻击、后门
23、攻击等。这些攻击技术既可互相独立也可以同时存在。例如,中毒攻击通过按照特殊可信人工智能白皮书 13 的规则进行恶意评论等方式,向训练数据集投入干扰数据,继而影响推荐系统的准确度17;对抗攻击通过在道路交通标志牌上贴上特殊设计的图案,可以误导自动驾驶系统使其错误识别路牌上的信息,进而造成交通事故18;后门攻击具有隐蔽性,可能会被用于对 AI 供应链发动攻击。相比于传统的软件系统,此类干扰对人工智能系统的稳定性提出了更高的要求。人工智能的稳定问题引起了持续而广泛的研究。针对人工智能模型的对抗攻击与中毒攻击早在 2012 及 2013 年就已出现。其中,对抗攻击的目的在于通过构造针对性样本来诱使人工
24、智能系统决策出错;而中毒攻击的目的在于通过向人工智能模型的训练数据集注入中毒样本来劣化训练得到的模型的性能。在此之后,对抗攻击相继发展出了 FGSM(Fast Gradient Sign Method)、Carlini-Wagner 及 PGD(Projected Gradient Descent)等攻击方法;而中毒攻击的发展同样十分迅速,在其基础上更出现了后门攻击。后门攻击通过后门样本向人工智能系统植入后门,从而达到定向操纵人工智能系统的目的。该攻击与中毒攻击存在一定相似性,且常通过中毒攻击的方式来向系统植入后门。为抵御这些攻击,一些工作提出各类异常数据检测方法来检出并清除对抗样本、中毒样本
25、、后门样本等恶意数据,从而减轻恶意攻击带来的干扰;通过在对抗样本上进行对抗训练来抵抗对抗攻击;利用模型剪枝、后门检测等技术抵抗后门攻击。人工智能的稳定性仍然面临着较大的挑战。一方面,各种干扰手段层出不穷、持续演进,而新的攻击方法容易让旧的防御方法失效;可信人工智能白皮书 14 另一方面,干扰的形式正在逐步从数字世界向物理世界蔓延,例如通过打印对抗样本等手段能够直接对自动驾驶和人脸识别系统造成物理层面的干扰。未来在人工智能稳定性技术方面的研究将持续增多。(二)人工智能可解释性增强技术(二)人工智能可解释性增强技术 目前,以深度学习算法为核心的人工智能系统的运作就像是一个黑箱,人们只能看到数据的导
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 可信 人工智能 白皮书
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【宇***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【宇***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。