非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf
《非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf》由会员分享,可在线阅读,更多相关《非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf(5页珍藏版)》请在咨信网上搜索。
1、非社会的社会性:弥补人工智能责任缺口的一种纾困尝试*栾云镪1摘要:人工智能(artificialintelligence,AI)的突破性发展为人类提供诸多便利,但技术的社会属性引发了医学、哲学、法学等学科领域对其道德责任缺口问题的深层隐忧,争议的核心是 AI 技术发展是否可控,AI 是否可以像人类一样具有能动性和体验性,如何提高 AI 的道德敏感度。“非社会的社会性”理论为弥补 AI 的道德缺口提供了一种纾困策略:将“人是目的”作为道德尺度,以人类自身责任主动把握智能技术伦理主动,重塑智能技术在人类社会中的限制条件,为引导其向负责任发展提供规范性道德指引。关键词:非社会性,社会性,人工智能,责
2、任,伦理边界,伦理规范中图分类号:R-05文献标识码:A文章编号:1002-0772(2024)09-0001-05DOI:10.12014/j.issn.1002-0772.2024.09.01Non-social Sociality:A Remedial Attempt to Address the Responsibility Gap in Artificial IntelligenceLUAN Yunqiang11.School of Marxism,Nanjing Normal University,Nanjing 210023,ChinaAbstract:Thebreakthrou
3、ghdevelopmentofartificialintelligence(AI)hasprovidedmanyconveniencesforhumanity,butthesocialattributesoftechnologyhaveraiseddeepconcernsinthefieldsofmedicine,philosophy,law,andotherdisciplinesaboutitsmoralresponsibilitygap.ThecoreofthecontroversyiswhetherthedevelopmentofAItechnologyiscontrollable,wh
4、etherAIcanhavethesameagencyandexperienceashumans,andhowtoimprovethemoralsensitivityofAI.Thetheoryofnon-socialsocialityprovidesaremedialstrategyforfillingthemoralgapinartificialintelligence:takinghumanbeingsasthepurpose as the moral scale,actively grasping the ethical initiative of intelligent techno
5、logy with human responsibility,reshapingtheconstraintsofintelligenttechnologyinhumansociety,andprovidingnormativemoralguidancetoguideitsresponsibledevelopment.Key Words:non-socialsociality,sociality,artificialintelligence,responsibility,ethicalboundaries,ethicalnorms1文献回顾与问题提出人工智能(artificialintellig
6、ence,AI)被广泛运用于各种医疗场景的同时,引发学界对 AI 是否承担道德责任以及是否存在责任缺口(responsibilitygap)等问题的隐忧,发展负责任的 AI 成为国际社会的一项共同愿景。AI 责任限定源于人对自我的认识,由此引发对科学技术的伦理限制。在技术产生以前,哲学家的探讨集中在人性本身。亚里士多德推崇沉思的生活,认为“人非完人”是道德发现的前提;康德1以“我能知道什么”“我应当做什么”“我可以希望什么”三组设问引发对“人是什么”2的关注,提出生命本身无价,人是目的而不是手段;利奥塔3强调道德之根本是美,“一切道德之道德,都将是审美的快感”;科尔伯格4提出道德的评价依据为单
7、纯思辨的认知判断,在思考中反思之;尼采5从生命意志的角度强调“某种生命体首先的意愿是释放它的力量生命本身就是权力的意志”。此后,哲学家把目光放在技术对人理性僭越的反思上,重新思考人与技术二者的关系。马克思韦伯对资本主义工业文明反思并揭露了现代性包含的种种冲突,认为现代性的根本属性在于合理性,合理性(作为技术手段的理性)被固化,人的理性丧失,沦为工具,任由自由意志摆布,造成现代性的牢笼。他认为裹挟技术外衣的技术对人的尊严的践踏是反理性的,唤醒被对象化和工具化的各种情势斗争,恢复人对神圣生命历程的自省,防止人的生命伦理异化,使人完成生命价值的理性复归;海德格尔6认为技术是一个“座架”,“座架意味着
8、对那种摆置的聚集,这种摆置促逼着人,使人以订造方式把现实当作持存物来解蔽”。“座架”是对技术崇拜时代的一种批判,迷恋崇拜技术,人显得无力而苍白,受命运胁迫。人受控技术操控则会失去自我判断力和自我鉴赏力,对自身无知无感,无法体察人间冷暖。海德格尔7认为技术既不是技术本身,也并非某种手段而是一种“去蔽”方式。个*基金项目:2020 年江苏高校哲学社会科学研究重大项目(2020SJZDA144);2022 年教育部高校思想政治工作中青年骨干队伍建设项目(2022SZGGDW05)1.南京师范大学马克思主义学院江苏南京210023作者简介:栾云镪(1996-),男,博士研究生,研究方向:思想政治教育哲
9、学、科技伦理。E-mail:专论医学与哲学 2024年 5月第 45卷第9期总第 740 期Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.7401体的生命历程仅此一次,生命历程中的人要有思想就要回到实践,实现人的自我解放,对人本身重新认识,走出“原子式”发展路径。现代伦理学关注 AI 技术对人类自由意志的本体性影响8,因而复杂环境下的机器学习及其数据挖掘能力对 AI 的发展意义重大9,引入伦理责任限制使其具有伦理决策与社会帮辅功能10,有助于道德责任的变化和边界关系的重建11,以应对医学临床实践中不确定性的挑战。2AI 的控制弱化风
10、险与伦理缺憾时下,AI 在现代医疗领域被广泛运用,如居家养老、影像病理、精神心理、康复理疗、普通外科、妇产科、心胸外科、口腔科等。不过 AI 到底是物还是人、是否具有道德性成为学者争论的焦点12。学界有两种代表性观点:支持意见认为 AI 不具有自主选择性,AI 具有道德的假设不成立13,反对意见指出机器人如果可结合人类道德法则进行是非判断则具有道德性14,医疗实践中的 AI 与人类道德边界存在模糊性,AI 的兼容性与规范性的盲区给伦理监管带来潜在风险。2.1AI 的 医 疗 实 践 与 人 类 道 德 行 为 边 界 存 在 模 糊 性人是否对行为后果承担伦理责任是就行为在可控范围谈论的。传统
11、技术运用范围具有可控性,借助一定手段完成既定目标,行为后果是确定的,事件因果性也是可追溯的,即便当某个程序发生故障,也能在用户、监管人、工程师等群体中找到相应责任。随着 AI 的深入研发,人机交互、人机协同不断使人类的行动变成了一种基于 AI技术的“技术性行动”15,人类中的高智商者也基本无法与智能机器人匹敌。一是 AI 的普及正在撼动医生的主体性地位。执业医师做出专业诊断往往需要较长时间的学习积累,培养一名医学博士一般需要 8 年时间,AI 的迅捷诊疗意见只需短短几秒钟,20062016 年仅 10 年国内就已完成 40896 例达芬奇机器人手术16。英国一家智库公司称机器人未来可能取代近
12、25 万个岗位,推动就业结构的变革,每年可节省 26 亿英镑支出17。二是 AI 逻辑执行的模糊性。设计者(designer)的主体价值通过算法设计内嵌于 AI 的底层逻辑。AI 从研发到应用的行为后果具有多种因果链条,各自因果链条又会发生不同的“连锁反应”,参与者和应用场景具有较远的物理分隔,AI 的远距离效应模糊了行为和事件的直接因果线索,设计者可能无法了解该应用的隐性威胁和潜在用途,降低了行动的敏感性。若各种消极行为无法得到有效预测,便会引起人们对参与者是否负责任的非议。三是 AI 伦理监管的复杂性。具备深度学习的 AI 能够在运行过程自动调整参数,或许可以完全绕过人脑固有思维,越来越精
13、明而做出委托者意想不到的事情,“并不知道自己在做什么”18,形成“算法暗箱”(在输入和输出的答案间存在不为人知的决断过程,使数据难以观测,难以理解,无从下手)。AI 通过学习不断演化成的“新智能思维”模拟人的思维,达到人类无法触及的地带,形成新兴技术生命周期“峡谷”19。但人还不足以了解算法的内在机制,这种随机且不透明的决策过程会造成传统监督的失灵,特殊情况下还会演进为算法歧视20。错误或残缺的算法数据会引发医疗决策失误的风险,算法设计本身缺陷相较于临床诊断的失误可能更会令患者生命受到潜在威胁。AI 的交互作用是依赖虚拟空间的主客体互动关系进行的,这种互动通过不断增强的技术被实际构造出来21,
14、算法模型的失误可能影响交互的效果,当机器遭遇“他心”,会形成人机互动的神经机制,人机交互性意味着 AI 或者 ChatGPT 场域变成互动/相互作用“本体论”地先于“是”/存在“存在”22,社会认知会面临更多不确定性23,医疗技术有被秘密用于不合理医学试验的可能性,基因编辑婴儿事件是人为改变人类基因算法的例证。2.2AI 医疗实践的兼容性与规范性存在认知盲区现有法律对智能科技的监管依旧空缺,专家呼吁早日建立 AI 伦理审查和协同治理机制、完备的伦理守则以及可行的指导方略24。一是对 AI 的操作使用方面存在不同规范。不同 AI 之间的兼容性较差,对医疗 AI 监管的事后审查更多是一种补救,不足
15、以应对医疗算法的安全风险。Luxton25指出,将 AI 运用到卫生领域技术尚不成熟,对医疗机器人监管尚未成型,尤其是 AI 造成的隐私外泄无法对侵权主体进行精准责任认定及追责,造成 AI 责任逃逸。英国发生多起医疗机器人伤人事件,达芬奇机器人医疗纠纷在中国的裁判文书就有 10 多篇26。现实医疗场景的复杂性,即便专家也难以充分解释,美国也曾出现过医疗过程中机器人零部件掉入人体内部,失控、短路等情况。有研究指出一次手术过程由于机器故障,机器人操控台失灵信号没有及时反馈给主治医师,在手术关键一步,机器对患者的心脏缝合产生偏离,医生着急进行二次缝合,整个手术进程受到迟滞,由于手术中机器产生多次失误
16、,患者主动脉被 AI 意外切断,最后全力抢救患者,仍无力回天,令人痛惜27。可见,AI 的可靠性、适用性、隐私性等因素没有被完全考虑在内,但医疗危害一旦发生就不可逆转。二是机器与机器发生指令冲突时怎样根据已有规则确定优先性(priority)机制尚不明确。一个成人和一个幼童遭遇危险,现实中成人的生存可能远大于幼童。人类抉择一般是先救幼童再救成人,但 AI 仅仅依靠算法,推算成人的存活概率更大,可能抛下幼童救下成人。人的道德主体性体现在人的自我意识之中。尽管 AI 还没有形成自我意识,但在某些方面已经超越了人脑。机器人没有情感不懂人类感情,不过,当 AI 越来越自主和智能时,人类会失去更多对成品
17、的控制,设计者即便具有基本的控制能力,也未必能以这些能力或机器的深度学习灵活转变,故而增加了系统性行为的风险性,一旦产生错误,很难分清到底是设计失误、操作失误还是算法学习失误,智能技术学习自主性的增强某种意义上就是制造者实体控制力的弱化,直接非社会的社会性:弥补人工智能责任缺口的一种纾困尝试栾云镪医学与哲学 2024年 5月第 45卷第9期总第 740 期2Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.740 或间接给道德主体的责任承担带来隐患。3非社会的社会性:构建 AI 的责任限度与伦理边界技术性责任问责困难在于尚未澄明技术发展
18、与责任的边界问题。“技术发展必然导致责任缺口”这种假设的前提是技术的发展有缺陷,技术的工具性决定技术的发展符合技术的内在逻辑和自然的规律性,但也受到经济、政治、法律、历史以及公众态度等各种社会事件的规制,塑造技术的力量是多方面的,远远超出技术本身的可行性,技术的责任问题并不是技术工具性生成逻辑的衍生,“特定的技术并不需要特定的责任安排”28,一系列社会因素会影响选择的选项,从而影响技术的内容和它们的社会影响29。康德30认为,人一方面具有社会化倾向,在与他人交往中认识到人不仅仅是自然人,另一方面又具有独立表达个体意志的道德倾向,这是人类历史逻辑的绽出,亦是自由理性发展的过程,实现这一过程的现实
19、手段是以人性为基础的,就是以人所具有的“非社会的社会性”。因此,发展负责任的智能技术就是要按照“人是目的”为最高伦理尺度,引导 AI 按照可控性方向发展,坚持合规律性和合目的性的统一,让责任权属棱角分明,促进技术更好为人类社会完善服务。3.1理性认识 AI 的技术上限人对未知的尝试是为了表达对确定性的承认,人的各种行动的企图(意图)不断满足将个人意愿限制在一致性方向31。当 AI 介入社会伦理关系时,技术的非确定性的前奏打断了人类探索自身确定性的节奏,AI 对责任问题的悬置,以及不断产生客体主体化倾向,用技术的有限性替换了人类解放的可能性,将人类置身于自身价值消解的旋涡中,阻隔确定性。作为面向
20、未来的技术手段,限定 AI的伦理边界,降低道德失范风险出现的可能性,纯洁地“生成我们的世界”32。AI 在特定领域可以无限,在强 AI 状态下,智能机器已完全具备不同情境下的“思考力”和“决策力”,Chat-GPT 已经可以从事代码、文案、海报等繁琐文字的撰写,可以进行复杂图片生成、智能对话、推理判断、比较合成、程序制作,但人类已有认知和实践界限规定智能技术尺度的边界是 AI 难以逾越的哲学高度,所有智能机器演算的基础、方法、价值判断都是“由人类预设立场提供的”33。AI 的工具属性限定了技术的使用域界,AI 可以改变社会的生产模式,却无法挣脱人类思维对它的限定34,只能被设计成遵守规则,却不
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 社会 社会性 弥补 人工智能 责任 缺口 一种 尝试
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。