生成式人工智能可信发展的法治基础.pdf
《生成式人工智能可信发展的法治基础.pdf》由会员分享,可在线阅读,更多相关《生成式人工智能可信发展的法治基础.pdf(15页珍藏版)》请在咨信网上搜索。
1、13新兴权利法律问题研究:生成式人工智能法治生成式人工智能可信发展的法治基础陈兵摘要:随着人工智能技术发展不断成熟,其功能和应用领域不断扩张,尤其是近期爆火的生成式人工智能技术及服务,在多领域存在巨大的发展潜力。“可信”作为人工智能产业发展的内在要求,其内涵在域内外政策及实践中大致可总结为“可操控、可解释、可问责”等要求。然而,生成式人工智能技术所潜在的“技术+资本”垄断、伦理道德标准不清、侵权责任模糊以及数据安全风险等新问题,引发了生成式人工智能的信任危机。基于此,建议以竞争治理、伦理治理、侵权治理以及安全治理等为基点,通过强化生成式人工智能领域要素治理,科学审慎引入事前监管,平衡鼓励创新与
2、保护竞争之间的关系;建立健全生成式人工智能领域科技伦理规范;搭建基于生成式人工智能产品生产者责任和使用者过错的侵权责任认定规则,从技术和制度层面加强数据算法安全等四个方面实生成式人工智能可信发展的法治基础。关键词:生成式人工智能;可信发展;反垄断;侵权责任认定;数据算法安全中图分类号:DF0-052文献标识码:A文章编号:16 7 4-9 50 2(2 0 2 3)0 4-0 0 13-15作者:陈兵,南开大学法学院教授、博士生导师,南开大学竞争法研究中心主任。近年来,随着人工智能(Artificial Intelligence)算法不断迭代升级,特别是机器学习赋予人工智能强大的学习能力,使其
3、不再局限于只按照事先指定的模板或者规则,进行简单的内容输出和制作,而是能够根据用户提出的指令即可生成灵活且真实的内容,甚至能够实现高质量的内容创作,这类技术也被称为人工智能生成内容(AIGeneratedContent,A IG C),或者基于生成式人工智能服务产生的内容物,以下简称“AIGC”或“生成式人工智能”作为生成式人工智能的典型代表,最近备受关注的ChatCPT是基于语言模型CPT-3.5的聊天机器人,其使用的进行机器学习训练的算法是一种被称为人类反馈强化学习(RLHF)的方法,可以回答后续问题、进行模拟对话、承认错误、挑战不正确的前提并拒绝不适当的请求。虽然,在这之前本文系2 0
4、19 年度教育部人文社会科学重点研究基地重大项目“全球数据竞争中人权基准的考量与促进研究”的阶段性研究成果,项目编号:19 JJD820009;2 0 2 2 年度南开大学文科发展基金科学研究类青年项目“服务保障数字经济健康发展司法案例研究”的阶段性研究成果,项目编号:ZB22BZ0327。参见中国信息通信研究院:人工智能生成内容(AIGC)白皮书(2 0 2 2 年),2 0 2 2 年9 月。See OpenAI,“ChatGPT:Optimizing Language Models for Dialogue,May 12,2023,https:/ by May 30,2023.14202
5、3年第4期上海政法学院学报(法治论丛)存在可以与人进行对话互动的聊天机器人,但并未受到同ChatCPT一样的关注度,这是由于对比同类聊天机器人,ChatGPT的功能更加强大,其使用来自RLHF训练的模型,可以根据从大型文本语料库中学习到的内容,生成篇幅更长和包含细节更为丰富的内容,能够完成写新闻报道、写邮件、写代码等多种任务,具有开放性、跨领域及通用性的特征。ChatGPT较低的使用门槛和的强大功能,使人们对人工智能的固有印象发生了改变,同时也让人们意识到生成式人工智能在更多领域应用的潜力。然而,伴随ChatGPT的爆火带来的生成式人工智能的热潮,也让人们看到了潜在的数据滥用、算法歧视、隐私侵
6、权技术垄断等法律风险,以及其具有的对消费者福利、企业创新、市场竞争甚至国家安全的消极影响,从而引发人们对AIGC乃至整个人工智能技术和产业的信任危机,可能会妨碍人工智能技术和产业创新发展,甚至阻碍人工智能产业的发展。为此,需要探究可能引发生成式人工智能信任危机的症结,探寻生成式人工智能可信发展的法治基点。一、生成式人工智能可信发展的内在要求早在AIGC技术兴起前,人工智能技术就已经广泛应用于汽车、家居、医疗等领域。然而,随着人工智能技术应用的不断推进,人们发现人工智能技术仍存在不可控、不可解释、不可预知、不透明等端和风险,并且在使用过程中可能给人身安全、信息安全以及财产安全等带来一定风险,由此
7、引发了人们对人工智能技术的不信任。这种不信任会降低人们在部分场景中使用人工智能产品的意愿,从而限制相关技术应用的深度和广度,对人工智能产业的健康可持续发展产生实质阻碍。为了消除人们对人工智能技术应用的不信任,推动人工智能产业“可信”成了一个必然选择。对于AIGC产业而言,“可信”也是其健康持续发展的内在要求。近年来AIGC技术的兴起和发展,使其逐渐成为新的人工智能产业分支。虽然AICC技术相比于之前的人工智能技术有巨大突破,但是“可信”仍是AIGC产业健康可持续发展的必备要求。一方面,AIGC技术仍存在局限性。以ChatGPT为代表的AIGC技术,在强化学习技术以及大数据模型的加持下,已经能够
8、生成类似于人类创作的作品,以至于难以区分人工智能生成物与人类创作作品的界限。然而,此类技术仍存在一定的局限性,主要体现在人工智能不会对其生成的内容进行检视,以至于人工智能生成的作品可能会存在错误的内容。另一方面,现行与AIGC相关的法律法规尚未健全,难以有效回应AIGC产业发展和技术应用可能带来的诸如著作权纠纷、侵权行为以及数据泄露等法律风险。为了进一步推动可信AIGC产业的发展,就需要正确把握适用于AIGC产业的“可信”内涵与要求。See OpenAI,“ChatGPT:Optimizing Language Models for Dialogue,May 12,2023,https:/ b
9、y May 30,2023.参见陈兵、林思宇:如何看待ChatGPT爆火背后潜在的法律风险,第一财经日报2 0 2 3 年2 月2 2 日。生成式人工智能可信发展的法治基础AICGC作为人工智能技术的分支,其技术特征和运行原理与此前的人工智能技术存在一定共性,因此,对人工智能产业整体提出的可信要求也可以适用于AIGC领域。自2 0 17 年“可信人工智能”的概念正式提出后,各国积极开展推进可信人工智能的研究,并陆续出台了用以推动可信人工智能产业发展的各项指南、规范、倡议书等。为了更全面地把握AIGC产业的“可信”内涵,还需进一步考虑AICC的特性,在可信人工智能整体要求基础上,结合AIGC产业
10、和相关领域的特征分析其内涵。表1国内外对人工智能产业提出的“可信”内涵国家/组织时间文件内涵人工智能原则:国防部应(1)负责任;(2)公平性;(3)可追溯性;(4)2019.10用人工智能伦理建议可靠性;(5)可控性美国人工智能系统开发、测试和审查符合最高公平性、问2021.11人工智能指南道德标准责制和透明度标准关于机器人民事法规则的(1)自由;(2)隐私;(3)正直和尊严;(4)自2017.01欧洲委员会建议决和不歧视;(5)个人数据保护欧盟(1)受人类监管;(2)技术的稳健性和安全性;(3)2019.04人工智能道德准则隐私和数据管理;(4)透明度;(5)多样性、非歧视性和公平性;(6)
11、社会和环境福祉;(7)问责制新一代人工智能治理原和谐友好、公平公正、包容共享、尊重隐私、安全可控、2019.06则一发展负责任的人工智能共担责任、开放协作、敏捷治理等八条原则(1)增进人类福证;(2)促进公平公正;(3)保2021.09新一代人工智能伦理规范护隐私安全;(4)确保可控可信;(5)强化责任担当;(6)提升伦理素养中国生成式人工智能服务管理以遵守法律法规、社会公德、公序良俗为底线,生成2023.04办法(征求意见稿)式人工智能的服务提供者需要承担特定的义务和责任可信人工智能从技术和工程实践的角度,落实伦理治理要求,实现创新发展和风险治理的有效平衡。可信包含2021.07可信人工智能
12、白皮书可靠可控、透明可释、数据保护、明确责任、多元包容5项可信要素综合国内外对人工智能产业提出的“可信”内涵与要求(见表1),可以归纳出以下几方面要求。1.可控性。人工智能技术与传统技术不同,其最大特征在于其能够自主运作,而无需人类的操控和干预。虽然人工智能的自动化运作能够极大减少人类的工作量,并且伴随人工智能技术的不断成熟,人工智能可以完成的任务也逐渐增多。但是,人工智能的自主化程度越高,越有可能脱离人类的控制,最终可能产生违背使用者意志的结果。因此,可信人工智能要求其技术具有可控性,即人工智能的运作必须是在人类的掌控下,可以基于人的意志控制和干预人工智能的运行和产出。由于目前AIGC技术主
13、要应用于绘画、写作、编程等领域,因此,可控性在AIGC领域主要体现2 0 17 年何积丰院士在香山科学会议上首次提出“可信人工智能”概念。参见中国信息通信研究院:可信人工智能产业生态发展报告(2 0 2 2 年),2 0 2 2 年9 月。该表格参考中国信息通信研究院可信人工智能产业生态发展报告及公开资料。162023年第4期上海政法学院学报(法治论丛)为要求AIGC内容的生成以及生成内容的使用和发布是受人类控制的,且能够被人类干预,也即人类可以凭借自己的意志控制AIGC生成自己所需的内容,并且可以自主决定是否使用和发布生成的内容。2.可问责性。人工智能技术的自主性对传统的侵权责任追究机制产生
14、了冲击。当人工智能在脱离人类控制的情况下产生了侵权行为,此时人工智能的操控者并没有侵权的故意,在这种情况下,应当让谁承担侵权责任成为一个巫待解决的难题。为了保障被侵权人的利益,就必须确保人工智能技术的使用具有可追责性,即被侵权人权益受到人工智能侵害时,需要有主体承担侵权责任,以保障被侵权人的合法权益。AIGC主要应用于论文的写作、绘画创作等具有一定创造性的领域,并且基于AIGC技术原理可知,其内容的生成需要大量学习文字和图画等数据资源,其中就可能包含具有知识产权或个人信息等类型的数据。因此,在其采集数据或生成内容的过程中,可能会侵犯他人的著作权,也可能会侵犯他人的隐私权、名誉权等。此时,AIG
15、C的可追责性就体现在,若AIGC学习的数据或者生成的内容侵犯了他人权益,需要有主体承担相应的责任。3.公平性。公平性要求主要针对人工智能领域可能出现的不公平或者歧视性现象,主要体现在两方面:一是使用过程中的不公平。由于人工智能技术具有一定的技术门槛,对企业的资本和技术研发能力都有要求,一般只掌握在少数企业手中,由此可能会形成技术垄断,其他企业若要使用该技术,只能被迫接受不公平的条件,而竞争对手则可能会被限制使用。二是在产出结果方面具有的歧视性。受人工智能学习数据数量和种类的限制,人工智能可能会生成具有偏见或者歧视性的内容。因此需要通过公平性要求,来保障人工智能技术使用和生成内容的公平、无歧视。
16、在AIGC领域,AIGC作为一种新兴的技术,仍存在一定的技术门槛,仅有少数企业拥有该技术。以ChatCGPT为例,目前虽然有类似的技术存在,但由于ChatGPT的功能更加强大且完善,其他产品难以真正替代该技术,在此情况下,极易出现“技术+资本”垄断的问题,可能会出现技术封锁等不公平的现象。因此,AIGC技术的使用应当保证公平且开放,避免新技术成为企业获取垄断利润的工具。同时,AIGC源于其技术特性,在集中学习的数据数量和种类有限的情况下,难免也会出现生成存在偏见和歧视的内容,对此,AIGC领域也应当确保生成内容公平无歧视。4.可靠性。从字面意思看,可靠性与可信非常相近,但具体内涵却存在一定差异
17、。目前,人工智能技术主要作为辅助或替代人类完成工作的工具,当人工智能技术无法完成工作或者是不能满足需求时,那么使用这种工具将是不可靠的。在AIGC领域,可靠性则主要体现在对人工智能生成内容的正确性和真实性方面的要求,这一点在生成式人工智能服务管理办法(征求意见稿)(以下简称“管理办法”)中第4条第4项中也有体现,要求生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。5.透明可解释性。人工智能技术的核心是算法,但是算法具有高技术性和复杂性,非专业技术人员往往难以理解人工智能的运作原理,这导致人们往往不能理解人工智能是如何生成内容或者作出决策的,这种状态也被称为“黑箱”。由于这个过程
18、是不透明的,存在信息不对等的情况,由此生成式人工智能可信发展的法治基础会引发人们对人工智能生成内容或者作出决策的不理解和不信任。AIGC技术也是如此,人们并不清楚自已输人的数据会被如何处理和使用,也不清楚人工智能是如何得出结论的。在这种情况下,要求人工智能透明可解释,也是消除人们顾虑的主要途径。6.安全性。人工智能技术目前在多领域应用,其中部分场景中人工智能技术的使用可能会对安全构成威胁,譬如在自动驾驶领域,可能会对驾驶者的人身安全构成威胁;在智能医疗领域,不仅可能威胁人身安全,还可能会侵害患者的个人信息安全等。因此,对人工智能提出的安全性要求主要包括人身安全、财产安全、数据安全、国家安全等多
19、个方面。目前AIGC所应用的领域并不会直接威胁到人身安全,但是其技术的运作需要采集和处理大量数据,可能会危及个人信息安全以及国家安全,同时也可能会侵犯他人的财产性权益。因此,在AIGC产业,安全性要求主要体现在财产安全、数据安全和国家安全等方面。表2 AIGC可信发展的要求及具体内涵AIGC可信发展的要求具体内涵可控性AIGC内容的生成,以及生成内容的发布必须是受人类控制的可问责性因AIGC引发的侵犯著作权、财产权、隐私等侵权行为是可追责的AICC技术的使用是开放且公平的,并且人工智能生成的内容或者作出的判公平性断是非歧视的可靠性AICC生成的内容是真实可信赖的,能够切实满足需求透明可解释性运
20、作与生成内容的原理是透明可解释的AIGC的运行和内容生成不会对财产安全、数据安全、国家安全等产生威胁安全性和危害基于各国对AIGC可信发展的要求,结合其产业特征和应用现状,AIGC的可信要求主要包括“可控、可问责、公平、可靠、透明可解释以及安全”六个方面。为了切实推进AIGC可信发展,需要基于上述要求(见表2),审视当前可能引发AIGC信任危机的挑战与风险。二、生成式人工智能发展面临的信任危机目前,随着人工智能相关产业的高速发展,随之而来的数据隐私、安全风险、算法歧视等人工智能治理问题也对人们在使用人工智能技术时的信任程度产生了影响,推动人工智能可信化建设已经成为全球共识。AIGC作为近期人工
21、智能发展的重点领域,同样存在着诸如“技术+资本”垄断、科技伦理、侵权责任以及数据安全等风险与挑战,影响着人们对于AICC技术和产业发展的信任。(一)“技术+资本”弓引发的相关市场垄断风险AIGC技术的研发与应用需要海量的数据支撑、大量的数字数据技术与信息通信技术的集成与融18:2023年第4期上海政法学院学报(法治论丛)合,还需要强大的算力等硬件设施的支持,这些对企业技术研发能力、数据供给能力、资本支撑能力等都提出了很高的要求,强化了AIGC对技术、资本、数据和算法、算力等要素的依赖,也在很大程度上增加了AIGC技术研发与应用领域的进入门槛,容易出现超大型平台企业凭借“技术+资本”垒断市场的风
22、险。事实上,从目前国内外上线测试CPT大模型的企业来看,大都是该领域的头部企业,其在技术、资本、数据等领域都具有相当实力,一定程度上印证了前述论断,对中小企业而言,人工智能大模型训练所需的要素是它们难以负担的,这反过来又进一步助长了在AIGC领域各类要素向超大型平台企业聚合的趋势。如果对“技术+资本”垄断风险的预见和防治不予重视,不仅会破坏AIGC领域市场竞争秩序,导致市场竞争活力减少,降低资源配置的效率,且还会对可信AIGC的建设造成阻碍。因为部分企业为谋取和维持断利润,可能会通过提高技术门槛,设置技术封锁等方式,排除限制其他企业有效参与AICC领域市场竞争,并凭借其垄断地位,对消费者用户进
23、行剥削或施加不公平交易条件,这些都与AICC产业可信发展所要求的“公平、开放、包容”等价值相违背。由于生成式人工智能的研发和运行需要大量的数据、资本、技术、算力等要素的支持,只有少数拥有各方面强大技术优势、资本、算力等要素支持的企业或机构才能够参与其中。这种高准人壁垒使得其他潜在的竞争者难以进入或者生存,严重阻碍了市场竞争,将生成式人工智能市场发展逐渐推进到寡头垄断的局面。以ChatGPT为例,最初ChatCPT是由OpenAI开发,而非微软、谷歌等科技巨头,然而支持人工智能训练所需的开放和运行费用高昂,远非一般初创型企业可以承担。有关资料数据显示,2 0 2 0 年一次人工智能算法学习训练的
24、成本约为46 0 万美元,到2 0 2 2 年一次训练的成本降到45万美元,即便如此,对中小企业而言,仍难以独立承担如此昂贵的开发和运营费用。故为了获取运营需要的数据资源和云计算能力,其通常寻求与科技巨头合作。警如,为了维持运营,OpenAI选择与微软合作,得到了微软10 亿美元的投资,并专门为微软新必应(NewBing)搜索引擎定制了下一代大型语言模型。这在一定程度上显露出微软、谷歌等科技巨头能够借助其拥有的强大的技术和资源优势,采用收购、签订协议等方式获取中小企业的技术,并将其具有的市场力量快速传导至新市场,增加了科技巨头垄断算法、数据和技术要素的风险,其还可能通过实施技术封锁、数据屏蔽等
25、排除限制竞争的行为以维持垄断地位。可见,即便AIGC领域中的中小企业有能力研发出先进的技术,但是受限于企业在数据、算力硬件以及资本等方面的劣势,往往需要依赖超大型企业提供相关方面的支持,尤其是在资本投资过程中,超大型企业往往能够通过购买股份或者协议控制的方式掌握中小企业的控制权,从而形成“技术+资本”双轮驱动的方式,迅速占领并支配AIGC相关领域的市场,限制、排除竞争,谋取垄断利润。此外,生成式人工智能具有较强的通用性,可以在多个领域内提供优质的产品和服务,同时其See ARK Investment Management LLC,“Big Ideas 2023:Artificial Intel
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 生成 人工智能 可信 发展 法治 基础
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。