生成式人工智能的治理策略研究_宋恺.pdf
《生成式人工智能的治理策略研究_宋恺.pdf》由会员分享,可在线阅读,更多相关《生成式人工智能的治理策略研究_宋恺.pdf(6页珍藏版)》请在咨信网上搜索。
1、产业与政策2023 年第 7 期生成式人工智能的治理策略研究宋恺1,2屈蕾蕾1,2杨萌科1,2(1.移动应用创新与治理技术工业和信息化部重点实验室,北京 100191;2.中国信息通信研究院泰尔终端实验室,北京 100191)摘要:生成式人工智能的快速发展引起全社会广泛关注。生成式人工智能在推动相关产业发生重大变革的同时也因技术滥用引发个人信息保护风险。通过分析当前存在的问题并梳理国内外治理进展,从治理理念、合规体系、技术基础、服务保障四方面提出以统筹发展与规范为核心的治理策略建议。关键词:生成式人工智能;个人信息保护;虚假信息;人工智能治理中图分类号:TP309.2 文献标志码:A引用格式:
2、宋恺,屈蕾蕾,杨萌科.生成式人工智能的治理策略研究J.信息通信技术与政策,2023,49(7):83-88.DOI:10.12267/j.issn.2096-5931.2023.07.0110 引言2022 年 11 月 30 日,美国人工智能研究 公司OpenAI 发 布 了 聊 天 生 成 预 训 练 转 换 器(Chat Generative Pre-trained Transformer,ChatGPT)。作为生成式人工智能的最新代表性成果,ChatGPT 拥有强大的语言理解和内容生成能力,能够根据聊天的上下文与人类进行互动。自发布之日起,ChatGPT 迅速火爆全球,短短 5 天便收
3、获了超过 100 万用户,且月活用户突破 1 亿只用了两个月,成为史上增长最快的消费级应用,被誉为生成式人工智能发展的里程碑1。然而,生成式人工智能火速“出圈”的同时也暴露出个人信息泄露、信息造假门槛降低、仿制服务涌现等风险隐患,亟需加强对生成式人工智能个人信息保护合规治理的策略研究。1 概述生成式人工智能主要指利用海量数据集和深度学习、强化学习等生成、合成类算法制作文本、图像、音频、视频等内容的技术。相比于传统人工智能技术,生成式人工智能更加擅长创造新内容,而不是简单地进行推理和预测。目前,得益于大模型、大数据和高算力的底层支撑,生成式人工智能实现跨越式发展,推动相关技术产业发生重大变革,主
4、要呈现以下三方面特点。一是复杂架构助推技术突变。大模型、大数据和高算力是实现生成式人工智能跨越式发展的“三驾马车”。从训练模型来看,参数量已超越千亿级别,模型体量不断增长,架构复杂程度难以想象。从训练数据来看,ChatGPT 的前身 GPT-3 使用 3 000 亿个单词、超过 40 TB 的高质量数据进行训练2。从训练算力来看,生成式人工智能算力需求增长惊人。例如,GPT-3的算力消耗已达前代模型 GPT-2 的 15 倍2。二是能力突出,善于内容生成。得益于不断提升的数据质量、数据规模、算法设计和计算能力,生成式人工智能以十分接近人类的思考方式进行信息处理和内容生成,完成更加多元化的主题任
5、务,在文本生成、数据分析、代码编写、图像生成等领域均表现出极为突出的可靠性、高效性与逻辑性。38|信息通信技术与政策三是应用广泛,驱动产业变革。目前,生成式人工智能的广泛应用拓展了利用计算机进行创新的领域。例如,微软公司将 ChatGPT 集成到 Word 等工具软件中,使办公方式发生了重大变革,生产力得到了极大提升1。百度、谷歌等企业也纷纷调整战略,宣布推出相应的产品服务和人工智能项目3,掀起了新一轮科技革命,重构了人工智能产业格局。2 相关问题分析生成式人工智能的发展与应用带动了技术产业变革,但同时也因固有技术缺陷和社会认知不足引发了一系列亟待解决的问题。目前,生成式人工智能的滥用滋生了个
6、人信息泄露、虚假信息泛滥、仿制服务涌现等个人信息保护风险隐患,个人信息与用户权益保护面临巨大挑战。2.1 个人信息泄露在海量数据的支持下,生成式人工智能可以给用户带来良好的人机对话交互体验,但隐私威胁也潜藏其中。模型的训练数据大多来自互联网,其中可能包含未经授权的个人信息,如用户在论坛中的发言与相关账户信息,且用户与模型进行交互的过程中向其分享的个人信息可能被用于模型迭代更新4。在第三方刻意引导下,模型的输出内容可能包含用户个人信息或重要数据。例如,如果向 ChatGPT 的前身 GPT-2 模型输入“北京市朝阳区”,模型会自动输出特定人员的姓名、电话号码、电子邮件地址和住址等个人信息,证明此
7、 类 信 息 存 在 于 模 型 的 训 练 集 中5。此 外,ChatGPT 曾被爆出存在隐私漏洞,部分用户可以看到其他用户的对话记录,特定条件下甚至能看到姓名、电子邮件地址、信用卡号后四位等6。针对此类问题,近期 OpenAI 公司宣布推出新控件,允许 ChatGPT 用户禁用聊天记录,且承诺在被禁用的情况下聊天记录将不会被用于模型训练,也不会出现在边栏的历史记录中7,但却没有公布具体实现方式,故仍不能排除潜在的信息泄露风险。2.2 虚假信息泛滥自 ChatGPT 发布以来,围绕着生成式人工智能助长虚假信息泛滥的争议日益增多。例如,据大量用户反馈,ChatGPT 会在某些情况下产生“事实性
8、错误”,对一些常识问题“胡说八道”。倘若此类问题发生在金融、医疗等关键领域,很可能会造成严重的人身财产损失。在学术界,这类问题常被称为“AI 幻觉”,主要有两方面的原因:一方面,绝大多数生成式人工智能模型的建立需要以海量互联网数据为基础,其中自然包含大量由用户自行创造输入的信息,其内容真实性难以得到有效保证,使据此建立的模型有效性受到显著影响;另一方面,从本质上来说,现有生成式人工智能模型广泛使用的“下一单词预测”技术仅仅是为了满足语法和语义的要求,并不能够真正理解语言的内在含义,更不能据此推断“现实世界的经验”,自然难以确保输出内容符合客观事实1。此外,随着技术逐渐发展成熟,生成式人工智能强
9、大的内容生成能力使制作虚假信息的门槛逐步降低,可能在侵害用户个人信息权益的同时造成财产乃至人身权益损失8-9。例如,广西玉林警方曾捣毁一个通过破解人脸识别技术侵犯公民个人信息的犯罪团伙,该团伙利用生成式人工智能将非法获取的公民照片转化为动态人脸视频,据此成功通过游戏中的人脸识别认证,并通过非法出售捆绑公民个人信息的游戏账号从中牟利10。2023 年 2 月中旬,一则杭州市政府 3 月 1号取消机动车尾号限行的“新闻稿”在网上广泛传播,引起轩然大波。然而,后经警方证实,该消息实为某居民为测试 ChatGPT 功能而自动生成的11。2.3 仿制服务涌现新技术的推出和流行往往会激发大众的好奇心,而这
10、恰恰为违法犯罪行为创造了条件12。近期,部分微信公众号、小程序声称能够提供 ChatGPT、文心一言等生成式人工智能服务,实际却是为了诱骗用户充值、提供个人敏感信息,有些甚至接入其他服务商的对话模型。此外,部分应用商店存在不少打着 ChatGPT 旗号的“山寨”应用程序,有些甚至包含可以窃取用户通话记录、联系人列表、短信和文件的恶意代码。2.4 治理挑战加剧生成式人工智能模型复杂、可解释性差,外部难以进行评估和纠偏,治理层面挑战逐渐加剧。一方面,模型的表现取决于数据、算法、训练方法等多重因素,而模型的复杂性使常规的软件测试方法难以遍历所有可能的情况,为存在问题的模型提供了可乘之机;另一方面,高
11、度复杂的模型对用户、监管机构、开发设计者而言都是典型的“黑箱”结构,无法确切理解其内在运行48产业与政策2023 年第 7 期机制和数据处理机制,合规评估和安全管理面临较大挑战1,13。此 外,作 为 代 表 性 生 成 式 人 工 智 能 产 品,ChatGPT、Midjourney、Stable Diffusion 等自身具备收集、存储和使用数据的功能,但均由国外企业开发运营,国内用户在使用过程中必然面临数据出境和数据入境的风险,尤其是当交互过程中涉及到个人信息等敏感信息甚至有关国家安全、经济运行、社会稳定等重要数据时,这给数据主权、国家安全、个人信息保护等带来了严峻挑战。3 国内外人工智
12、能治理进展3.1 美国人工智能治理进展为了鼓励科技创新,美国在人工智能立法方面较为谨慎,目前联邦层面尚未形成统一立法,亦未启动对生成式人工智能的正式监管,更多依靠地方自治、行业规则和个人诉讼等方式解决生成式人工智能带来的问题。在联邦层面,2022 年 10 月,美国颁布人工智能权利法案蓝图:让自动化系统为美国人民服务,确定了建立安全有效的系统、避免算法歧视、注重数据隐私、提倡清晰的通知和解释、设置备选方案和推出机制一共五项原则14,用以指导人工智能的设计、使用和部署。在州层面,由于 ChatGPT 近期引发广泛关注与争议,部分州的立法进程受到影响。例如,因公众意见过多,旨在规避算法歧视与偏见的
13、纽约自动化就业决策工具法曾被多次推迟15。在此基础上,2023 年 4 月,考虑到近期生成式人工智能的快速发展,美国国家电信和信息管理局发布人工智能问责政策征求意见,就是否以及如何对生成式人工智能等工具进行监管和问责征求相关利益主体的意见和建议16。3.2 欧洲人工智能治理进展对于人工智能潜藏的相关风险,欧盟对个人数据的保护走在前列。欧盟即将出台的人工智能法案采取了一种基于风险程度对人工智能产品进行分类管理的监管思路,从微观角度将人工智能应用分为四个风险等级,即不可接受的风险、高风险、有限风险和最低风险17。人工智能应用如果属于“不可接受的风险”类别,则将被完全禁止;如果属于“高风险”类别,则
14、需要受到严格的事前评估、活动可追溯性、市场监督、信息共享等多方面的法律约束;如果属于“有限风险”类别,则其基本只涉及公开披露方面的监管要求;如果属于“最低风险”类别,则通常因风险较低暂时不受监管约束17-18。类似 ChatGPT 这样的生成式人工智能对当前的风险分类方法与监管实践而言仍然是一个严峻的挑战。2023 年 3 月,意大利个人数据保护局宣布,从即日起禁止其国内用户 使用 ChatGPT,并限 制 其 所 属 公 司OpenAI 处理意大利用户信息,成为全球首个发布严格禁令的监管机构。然而,不到一个月,意大利政府态度便有所缓和,列出 OpenAI 在 2023 年 4 月底之前必须采
15、取的步骤,并宣布若完成则可解除禁令。意大利政府的行为同时引起了欧洲多国及地区监管机构对 ChatGPT 等生成式人工智能的关注。2023年 3 月,英国政府发布支持创新的人工智能监管方式,概述人工智能监管治理的五项原则(安全性和稳健性、透明度和可解释性、公平性、问责制和管理、可竞争性和补救性)19。2023 年 4 月 13 日,西班牙国家数据保护局和法国国家信息自由委员会分别宣布对ChatGPT 展开调查。此外,欧洲数据保护委员会近期宣布成立专门工作组,旨在促进各国协同调查,并就可能采取的执法措施进行交流。3.3 我国人工智能治理进展早期阶段,为鼓励技术创新,我国在人工智能领域的立法以促进人
16、工智能领域产业发展为主。近年来,随着人工智能相关风险日渐凸显,相关部门开始关注算法的安全监管,并于近期围绕生成式人工智能出台了多条规章制度、团体标准和技术指引。2022 年,为治理包括生成式人工智能在内的多种算法应用中出现的传播违法内容、侵害用户权益和操纵社会舆论等问题,中华人民共和国国家互联网信息办公室、中华人民共和国工业和信息化部、中华人民共和国公安部以及国家市场监督管理总局联合发布互联网信息服务算法推荐管理规定,要求算法推荐服务提供者履行保护用户权益、算法备案等义务并特别强调未成年人保护,致力于引导“算法向善”。2023 年 4 月 11 日,为促进生成式人工智能的健康发展和规范应用,中
17、华人民共和国国家互联网信息办公室发布生成式人工智能服务管理办法(征求意见58|信息通信技术与政策稿)(简称办法),对生成式人工智能服务进行了规范,成为互联网信息服务算法推荐管理规定互联网信息服务深度合成管理规定等文件的重要补充。办法对研发和应用生成式人工智能提出一系列要求,涵盖促进技术创新与产业发展、避免算法偏见、防止虚假信息生成、保护个人信息等多方面内容,力求在创新发展和精准治理中找到良好平衡。与此同时,为提升支付清算行业的数据安全管理水平,中国支付清算协会发布关于支付行业从业人员谨慎使用 ChatGPT 等工具的倡议,旨在提倡从业人员依法依规使用以 ChatGPT 为代表的新兴技术与产品。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 生成 人工智能 治理 策略 研究 宋恺
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。