负责任人工智能的信任模塑:从理念到实践.pdf
《负责任人工智能的信任模塑:从理念到实践.pdf》由会员分享,可在线阅读,更多相关《负责任人工智能的信任模塑:从理念到实践.pdf(10页珍藏版)》请在咨信网上搜索。
1、40负责任人工智能的信任模塑:从理念到实践闫宏秀摘要:负责任人工智能作为人类对人工智能未来发展图景的一种规划,将责任与技术进行内在性的深度关联。技术的可信度与人类对自身的信任是发展负责任的人工智能必须解决的两个问题,而这两个问题的核心在于信任。就负责任人工智能而言,信任作为一条主线,以理念的形式出现在它的目标、趋势、任务之中,并覆盖了与该技术发展的所有相关方;信任作为一种价值观,为负责任人工智能发展共识的形成提供基础;信任作为一种生态系统,为负责任人工智能的发展营造合适的环境。因此,关于负责任人工智能的信任构建应从人工智能的相关方及其技术特征出发,以全过程、全范围的模式来寻求人工智能和人类之间
2、信任的构筑途径,进而确保人工智能向善。关键词:信任;人工智能;负责任;理念;实践中图分类号:N031文献标识码:A文章编号:10008691(2023)04004010信任作为维系人类社会运作的一个重要元素,虽然社会学、心理学、经济学、政治学、人类学和哲学等学科关于其的诸多研究存有差异,但是在这些差异的背后,恰恰凸显了信任的重要性。伴随技术日益社会化与社会日益技术化,技术信任成了一个备受关注的热点。特别是在人类社会日益智能化的进程中,面对因人工智能所蕴含的风险与不确定性而带来的困境,争论也日趋激烈。希望、信心和信任被彼得 什托姆普卡(Piotr Sztompka)视为人类面临困境可以采取的三种
3、态度。其中,希望和信心是“沉思的、分离的、远距离的、不承担责任的”a,而只有信任才是“应对技术不确定的和不能控制的未来”b至关重要的策略,且在信任形成的过程中,责任也随之涌现。事实上,从技术发展史与人类发展史来看,技术是人类生存的必备品。基于这种依赖某种信任也渐次涌现。此处的信任从动机的角度来看,可能是自愿性的,也可能是强迫性的甚或期望性的,与此同时,作为人类生存必备品的技术又因其风险与不确定性而带来了某种不信任,这种不信任倒逼着人类对技术信任的反思以及人类自身信任的审度。这两者的交织恰恰也为技术的不断迭代升级过程所确证。但需要高度关注的是,与以往不同的是,人工智能本身的拟人化或者类人性使得人
4、类对其的态度更加魔幻,并将人与技术之间的信任推向了一个新的境遇,进而使其逐渐成了技术发展趋势与人类未来的一个核心问基金项目:本文是国家社会科学基金重大项目“现代技术治理理论问题研究”(项目号:21&ZD064)的阶段性成果。作者简介:闫宏秀,女,上海交通大学数字化未来与价值研究中心主任,教授,博士生导师,主要从事技术哲学与技术伦理学研究。a 波兰 彼得 什托姆普卡:信任:一种社会学理论,程胜利译,北京:中华书局,2005 年,第 3132 页。b 波兰 彼得 什托姆普卡:信任:一种社会学理论,第 32 页。2023 年第 4 期41题。因此,在人工智能的发展进程中,当其被用“负责任的”一词来进
5、行修饰与界定的时候,一方面显示出了人类对技术的一种信任期冀,另一方面也暗含了人类对自身未来的某种担忧,这种担忧恰恰源自人类对自身信任的困惑。那么,负责任人工智能是否可以化解这种担忧呢?一、蕴含在负责任人工智能发展全过程中的信任负责任人工智能作为人类对人工智能未来发展图景的一种规划,通过负责任的研究与创新,以及负责任的使用等将责任与技术本身进行了内在性的深度关联,体现了技术伦理研究的内在路径与外在路径的有机融合。从关于负责任人工智能的规划、政策、指南、建议等来看,信任作为一条主线,以理念的形式贯穿在其发展的全过程之中,并至少已经以目标、趋势、问题、任务等方式出现。(一)作为负责任人工智能发展目标
6、与发展趋势的信任从负责任人工智能的缘起来看,其提出的背景是基于人工智能在人类生活中的重要作用,其目的是旨在为人工智能在人类事务中的融合提供一种机制。该机制可以使人工智能技术能够“以一种合乎伦理的、透明的以及可追责的方式来培养信任和维护隐私,并减少其风险”a。因此,培养信任是其发展目标之一。在 2022 年 6 月所发布的负责任人工智能战略中,美国国防部对负责任人工智能的期望最终状态就是信任。b在这里,信任无论是作为培养还是最终状态,都是意在消除由人工智能引发的系列问题,为人工智能的发展营造合适的氛围,进而合理释放人工智能的技术效用。从人工智能的发展趋势来看,近年来所提出的“为社会负责任的人工智
7、能”(Socially Responsible AI)、“为社会负责任的人工智能算法”(Socially Responsible AI Algorithms,SARs)c等明确将社会责任与人工智能的发展置于一个共同的框架之中。其中,“为社会负责任的人工智能算法”系由“为社会负责任的人工智能”推演而来,因此,可将其归并到“为社会负责任的人工智能”之中。“为社会负责任的人工智能”意指“一种由人类价值观驱动的过程。在这个过程中,公平、透明、问责、可靠性和安全、隐私和安全、包容性等价值观为其基本要义”d。易言之,价值观通过技术的方式得以呈现,负责任的人工智能发展应满足上述价值观。就具体的社会责任来看,
8、有学者基于阿奇 卡罗尔(Archie B.Carroll)的企业社会责任金字塔框架,提出由功能责任(functional responsibilities)、法律责任(legal responsibilities)、伦理责任(ethical responsibilities)和慈善责任(philanthropic responsibilities)e所构成的人工智能的社会责任金字塔。在这四种社会责任中,伦理责任和慈善责任两者为通用性的解释,即遵纪守法、做正确、公正和正义的事情、阻止伤害;功能责任和慈善责任则从技术和人这两个不同的向度共同指向了人工智能。如功能责任是指“所创建的技术允许计算机和机
9、器以一种智能的方式发挥作用;慈善责任是指做一个善的人工智能公民,构筑人工智能生态系统以应对社会挑战”f。aRamzi El-Haddadeh,Adam Fadlalla&Nitham M.Hindi(2021),Is There a Place for Responsible Artificial Intelligence in Pandemics?A Tale of Two Countriesm,Information Systems Frontiers,https:/doi.org/10.1007/s10796-021-10140-w.bU.S.Department of Defense,
10、Responsible Artificial Intelligence Strategy and Implementation-Pathway,2022-06-22,https:/media.defense.gov/2022/Jun/22/2003022604/-1/-1/0/Department-of-Defense-Responsible-Artificial-Intelligence-Strategy-and-Implementation-Pathway.PDF,2022-12-09.cLu Cheng,Kush R.Varshney,Huan Liu(2021).“Socially R
11、esponsible AI Algorithms:Issues,Purposes,and Challenges”,Journal of Artificial Intelligence Research,71,1138.https:/doi.org/10.1613/jair.1.12814.dLu Cheng,Kush R.Varshney,Huan Liu,Socially Responsible AI Algorithms:Issues,Purposes,and Challenges,1139.https:/doi.org/10.1613/jair.1.12814.eLu Cheng,Kus
12、h R.Varshney,Huan Liu,Socially Responsible AI Algorithms:Issues,Purposes,and Challenges,1139-1141.https:/doi.org/10.1613/jair.1.12814.fLu Cheng,Kush R.Varshney,Huan Liu,Socially Responsible AI Algorithms:Issues,Purposes,and Challenges,1139-1141.https:/doi.org/10.1613/jair.1.12814.42可见,上述四种责任是在将企业责任与
13、技术责任进行融合的基础上,对“为社会负责任的人工智能”所展开的进一步审视。这种审视一方面是在力图界定并穷尽人工智能系统的多种责任,另一方面又是一个厘清各方责任的过程。而这种审视的本质与其说是在技术日益智能化与人对技术日益深度依赖的双向聚合中,关于技术之力的责任问题探究,倒不如说是关于人是否相信自己有能力对自己创造的产品做到有效可控的进一步商榷。事实上,在当下,如何“确保可控可信”a就是人工智能技术发展的目标和趋势之一。(二)作为负责任人工智能研发与应用中问题的信任这包括人工智能对现有信任体系所构成的挑战、由人工智能技术的可信度所引发的“信任”的界定问题、人类对人工智能的不信任与错误信任、人工智
14、能是否可以负责任等的争议。比如,在医学领域中,伴随人工智能系统的应用日趋广泛,人类对其的猜疑、不信任、盲目信任以及过度信任等已经成为了医患关系必须面对的一个重要问题。医生对人工智能系统的信任、患者对医生的信任以及患者对人工智能系统的信任催生了医患关系的新样态。一方面,人工智能系统在医学领域中的有效性不容忽视,技术的稳健性提升了人对技术的信任,为医疗更为精准、为医患关系更为融洽提供了更多的技术保障;另一方面则存在着对人工智能系统的过度依赖可能会导致人际信任在医患关系中被不断转换为基于工具理性的技术信任,甚或导致以人为本的医学本意渐远的担忧,以及对医生和患者“信任”人工智能系统的这种“信任”属性表
15、示质疑的观点。在约书亚 詹姆斯 哈瑟利(Joshua James Hatherley)看来,“即使人工智能系统可被依赖,且具有可靠性,但仍然不能被信任,且不具有可信度”b。同时,从产生信任动机的视角来看,人类具有产生信任的动机,拥有承担与信任相关的义务与责任的资质,但人工智能系统则不然。即使是负责任人工智能,其所指的负责任并非将责任完全归到人工智能技术自身,恰恰是重在强调该技术应当被负责任的研发与应用。退一步来看,抛开人工智能系统是否具有承担与信任相关的义务与责任的资质不谈,仅从产生信任的动机来看,人工智能系统显然是不足的。因此,人工智能系统也不能是“信任或可信度的一个适当对象”c。那么,人与
16、人工智能系统的关系是否能被视为一种信任关系呢?进一步而言,应如何看待此类“信任”呢?从人工智能作为技术的视角来看,这种信任至少可以与技术信任相等同,并且存在于负责任的人工智能发展进程中,以及人类将任务委托给人工智能系统的过程中,虽然人工智能系统自身没有信任的动机,但确实存在某种信任形成的场景与机会,且其之所以被称为是负责任人工智能在某种意义就是在于人类相信其有负责任的可能性。此时,关于负责任人工智能信任问题的追问是否会陷入一种逻辑循环呢?是否应当警惕技术信任的拟人化与人类信任的泛技术化呢?上述这些疑惑恰恰均是将信任作为一种理念,在负责任人工智能的研发进程与应用过程中所必须面对的问题。(三)作为
17、负责任人工智能发展任务的信任技术产生效用的前提条件是其被使用,若不被使用,效用就无法得以生成。一般来看,就用户而言,理想的技术使用状态是操作简便却又能如其所愿地完成任务。然而,这种理想恰恰将关于技术的复杂性或者技术黑箱问题的探讨,与用户对技术的有用性以及易用性的感知置于人类赋予技术以信任的两端。人工智能则在某种程度上,将上述两端带到了一种更加微妙的境界。当用户期望技术系统本身功能完备、运作自洽、介入较少却容易操作且富有成效地完成诸多任务时,技术自身的逻辑也随之而变得更为专业化或者行业化,进而加深了用户对技术黑箱的印象。此时,一方面,基于熟悉或者了解意义上的信任将会降低;另一方面,人工智能系统的
18、不断智能化与类人化的发展趋势则提升了用户的感知有用性与易用性,a国家新一代人工智能治理专业委员会:新一代人工智能伦理规范,http:/ 年 9 月 26 日。bJoshua James Hatherley(2020).Limits of Trust in Medical AI,Journal of Medical Ethics,46(7),478.cJoshua James Hatherley,Limits of Trust in Medical AI,480.2023 年第 4 期43进而提升用户对其的接受度,基于合作性完成任务意义上所形成的信任得到提升。也正是基于上述两个方面,人工智能系统
19、的不透明性与其在人类社会中的重要作用使得对其的信任备受关注。布莱恩 斯坦顿(Brian Stanton)和西奥多 詹森(Theodore Jensen)将用户对人工智能的信任视为由用户的信任潜质(User Trust Potential)和系统可信度的感知(Perceived System Trustworthiness)两个主要部分组成。a就用户而言,当其对人工智能系统的了解越少,而对人工智能系统的依赖性越高时,系统自身的可信度与用户对其感知的可信度之间的逻辑关系成为了人工智能发展所必须明晰的一个问题。目前,在世界多国关于人工智能的规划中,信任被视为一个重要的发展任务。美国的电子电气工程学会
20、(IEEE)将构建人与人工智能系统之间的正确信任层级视为一个重要议题b;欧盟委员会在 2020 年2 月所发布的人工智能白皮书:欧洲追求卓越和信任的路径中明确提出构建一种信任的生态系统c;2021 年 11 月,在联合国教科文组织的第 41 届大会通过的人工智能伦理问题建议书中指出:“人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平”d;在中国关于人工智能的一系列发展规划中,信任以及与信任相关的可信、可控、可靠等均为高频词汇。(四)负责任人工智能治理中的信任治理是发展负责任人工智能的重要环节,其包括伦理治理、法律治理、技术治理等多个方面,且需要多学科以及
21、多方合作才能实现有效的治理。就人工智能作为技术而言,对其的治理归根结底可以被视为是技术治理。因此,要严格区分对技术治理的信任与对技术的信任,不能以技术的稳健性所产生的信任来消解对技术的治理,并且“对技术治理的信任是保护社会和繁荣创新的关键因素”e,那么,什么样的技术治理是值得信任的呢?关于此,可以从信任的构成来进行回应。在TIGTech关于信任和技术治理的研究中,将公众利益意图、能力、尊重、诚信、包容、公开性和公平性f等视为信任的七个驱动要素。与此相应的是,一个值得信任的治理机构和过程也呈现出如下七个特质:(关注公众利益的)意图、能力、尊重、诚信、包容、公开性和公平性。g事实上,上述驱动要素与
22、特质一方面从正向勾勒出了构建技术治理信任应有的理想元素,另一方面则从反向呈现了产生信任问题的缘由。就负责任人工智能的治理而言,算法歧视、数据偏见、数据冷漠等在包容性、公开性、公平性等方面的欠缺所带出的信任问题是治理必须面对的问题,但治理的有效性、对治理本身的信任同样也是其必须面对的问题。恰如希拉里 R.萨特克里夫(Hillary R.Sutcliffe)和萨曼莎 布朗(Samantha Brown)在对脸书(Facebook)公司和剑桥分析公司(Cambridge Analytica)的治理研究揭示的那样,在治理方面的失败会造成对信任的侵蚀,这种侵蚀不仅对有用技术的发展有害,而且还可能损害整个
23、治理体系。h 因此,要发展负责任的人工智能,就必须充分解析人工智能治理中的信任。aBrian Stanton,Theodore Jensen,Trust and Artificial Intelligence,NIST Interagency/Internal Report(NISTIR 8830),National Institute of Standards and Technology,Gaithersburg,MD.https:/doi.org/10.6028/NIST.XXXXXX https:/tsapps.nist.gov/publication/get_pdf.cfm?pub_
24、id=931087.bIEEE,“Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems(Version 1)”,2016-12-13,https:/standards.ieee.org/wp-content/uploads/import/documents/other/ead_v1.pdf,2022-12-09.cEUROPEAN COMMISSION,“White Paper On Artificial Intelligence A
25、 European approach to excellence and trust”,2020-02-19,https:/ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf,2022-12-09.d教科文组织第 41 届大会审议通过人工智能伦理问题建议书,2021 年 11 月 27 日,https:/ 年 11 月 29 日。eHillary R.Sutcliffe,Samantha Brown(2021).Trust and Soft Law
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 负责任 人工智能 信任 理念 实践
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。