揭开“算法的面纱”:关于构建算法解释框架的思考.pdf
《揭开“算法的面纱”:关于构建算法解释框架的思考.pdf》由会员分享,可在线阅读,更多相关《揭开“算法的面纱”:关于构建算法解释框架的思考.pdf(7页珍藏版)》请在咨信网上搜索。
1、 2023 年第 10 期(第 42 卷总第 558 期)揭开“算法的面纱”:关于构建算法解释框架的思考刘烨(同济大学法学院,上海 200092)摘要:如何解决算法可解释性问题是算法治理中的一个重要法律议题,囿于算法使用者与受众之间不断扩大的“解释鸿沟”,现阶段算法解释困境存在于算法运行、决策形成到应用的过程之中,具体体现在数据识别的失衡、证明依据的不足和损害结果的泛化三方面。考虑到不同算法运用场域之下解释需求的差异,借助体系思维构建起算法解释框架,或将成为解决可解释性问题的突破口。以解释对象为逻辑起点将解释方法划分为定向告知、公开披露和行政报备三种模式,并基于“场景公正”理念将其应用于医疗、
2、信息推荐、金融等领域,针对不同业务和场景区分可解释性程度和标准,以期实现算法可解释。关键词:算法治理;自动化决策;可解释性;解释标准中图分类号:D922.14文献标识码:ADOI:10.19358/j.issn.2097-1788.2023.10.012引用格式:刘烨.揭开“算法的面纱”:关于构建算法解释框架的思考 J.网络安全与数据治理,2023,42(10):72-78.Unveiling the algorithmic veil:reflection on building an algorithmic interpretation frameworkLiu Ye(School of L
3、aw,Tongji University,Shanghai 200092,China)Abstract:A proper solution of the problem on the explainability of algorithm is an important legal issue in algorithm governance,limited by the expanding explanation gap between algorithm users and audiences.However,at this stage,the dilemma of theexplainab
4、ility of algorithm exists in the process of algorithm operation,decision-making formation and application,which is em-bodied in three aspects:imbalance of data identification,insufficient proof basis and generalization of damage results.Combinedwith the differences in interpretation requirements,exp
5、lanation methods and criteria of different application fields,building an al-gorithm interpretation framework with the help of systematic thinking may become a breakthrough to solve the problem on the ex-plainability of algorithm.Taking the object as the logical jumping-off point,the explainability
6、method is divided into three modes:directional notification,public disclosure and administrative reporting.This method can be applied to medical,information recom-mendation,finance and other fields based on the concept of scene justice,and the degree of explainability and criteria are dis-tinguished
7、 for different businesses and scenarios,so as to realize the explainability of algorithm.Key words:algorithm governance;automated decision-making;explainability;criteria for explainability0引言在人工智能领域,算法得以持续运作、生成决策的前提在于算法可解释。可解释性是保障算法可被信赖的安全特征,连通着算法自动化决策与法律规制。近年来,算法模型复杂度的大幅提升,算法使用者与决策最终受众之间的“解释鸿沟”也随之扩
8、大。而就算法这种尚未能够为人们所充分理解与把握的事物而言,出于对法律规范的可预测性和可接受性的考量,立法者需要谨慎考虑是否作出法律上的要求或安排。因此,如何有效解释算法,成为解决治理问题的重要环节。在如何更好地解释算法本身及其自动化决策,尤其在如何让用户有效理解算法的基本原理和运行机制方面仍待进一步完善。基于此,本文试图以“场景化分析”为切入口,梳理算法可解释性在算法治理中的现实困境,思考在具体场景之下的优化方案。27投稿网址:2023 年第 10 期(第 42 卷总第 558 期)1“可解释性”的提出关于算法“可解释性”的准确内涵,迄今人们尚未达成统一认识,一度产生“可解释性”(Explai
9、nability)和“可诠释性”(Interpretability)混用的局面。学界主流观点分析认为,“可诠释性”被定义为解释能力,即算法供以可理解的术语向人类阐释其决策意义的能力;而“可解释性”重在对“解释”概念的理解,“解释”作为人类和算法之间的一个连接点,既是对算法决策的准确概述,同时又能够为人类所理解(comprehensible)1-2。本文重点围绕“可解释性”展开讨论。在“可解释性”的法律规制上,当前立法尚处在初步探索阶段,立法者通常以算法使用者的解释义务或其他任意性规定来解决算法不可解释的问题。互联网信息服务算法推荐管理规定 第 12 条鼓励算法推荐服务提供者优化算法规则的透明度
10、和可解释性,避免对用户产生不良影响,预防和减少争议纠纷,然未创设法定义务。禁止网络不正当竞争行为规定(公开征求意见稿)第13 条更是明确禁止经营者利用算法“影响用户选择”,而“影响”概念之宽泛与模糊,经营者即使履行其充分解释义务,还是可能被错误认定为侵犯用户依据主观意愿自主选择商品的权利。因此,是否履行充分解释义务的认定标准尚需厘定。比较法层面,欧盟在 人工智能道德准则(AI Ethics Guidelines)构建的实现可信赖人工智能全生命周期框架中提出发展“可信赖 AI”(Trust-worthy AI)在可解释方面的要求,还在 关于人工智能道德原则的立法倡议(Framework of e
11、thical aspects of arti-ficial intelligence,robotics and related technologies)中明确要求算法应当具有“可解释性、可诠释性、透明度和可识别性等安全特征”,以确保算法决策安全且可以为人类所信赖。以上规定均未明确义务履行内容以及相关主体不作解释或者解释不全面、不充分、不真实的法律后果及责任。对此,立法也在试图回应。美国 过滤气泡透明度法案(Filter Bubble Transparency Act)规定:数字科技企业应当允许用户访问其不受算法影响的平台版本,换言之,让用户有权选择打开或者关闭被算法秘密操纵的功能,从而揭开“
12、无知之幕”。我国 互联网信息服务算法推荐管理规定 第 8 条明确要求“算法推荐服务提供者应当定期审核、评估、验证算法机理、模型、数据和应用结果”。近期公布的 生成式人工智能服务管理暂行办法 第 7 条也进一步规定了算法服务提供者的法律责任。问责的核心在于解释与沟通。至此,唯有先反思算法解释困境的形成原因,才能突破自动化决策的局限性,明晰相关主体的法律责任。2算法解释困境的原因探求如今的算法决策依赖的不单是对规则的简单推理,而是算法模型通过深度学习训练而产生近乎人类直觉的智能3。而一个真正达到人类水平的算法难免会面临更多且更进阶的问题。正如人类直觉往往难以言表,算法决策常常令人捉摸不透。从算法运
13、行起始的数据识别、决策形成过程中依据的缺失到事后决策应用的惯性,无不存在算法不透明的风险。2.1决策依据:数据识别的失衡算法模型运作程序的在先步骤是数据识别。算法模型首先需要自动识别数据,搭建数据库,然后根据预先设定的参数,就数据库中的信息进行判断,最终作出决策。算法并非万能,而是有其局限性,其对数据质量有着高度的依赖性,数据本身一旦出现问题,意味着决策结果有所偏颇。而数据本身包含各种复杂性因素,隐含着社会偏见、现实状况、民众心理等事实,看似合理的数据叠加,也并不排除“算法失准”的存在可能,因为目前算法尚不具备“数据修正”的功能特性。因此,不排除算法的运行会重演甚至强化这些“数据鸿沟”,同时造
14、成决策失衡。在美国,一些警务预测系统基于数据分析结果,高频次向相关部门建议往少数族裔聚居的社区增派警力;执法部门还基于面部识别技术构建算法模型来预测警务,结果由于犯罪数据库本身不完整,存在缺漏,致使算法决策放大了对非裔美国人的固有偏见,而算法关联进而影响保险公司的评估决策,致使针对非裔美国人的保险费率存在价格歧视,这明显违反了平等保护原则。可见,很多算法模型之所以出现决策偏差,问题出在推演数据本身的不完善,进而产生差异性结果的质疑和挑战。2.2决策形成:证明依据的不足一个决定的作出需要有依据和论证,包括理论和实践经验的支撑。受害方若要主张行为人构成侵权,须提供证据证明,且达到证明标准,法院方才
15、可能支持其诉求。但在算法自动化决策场景下,目前缺乏明显的证据理论来解释和论证算法决策行为的合理性4。对于搜索结果排序,百度公司特别建立了一套复杂的动态算法,不断自检产品算法并进行技术迭代,但搜索结果排序所依据的参考因素包括网站的质量、网站的浏览量、网站拥有的友链数量、网站内容是否属于专一领域等能否均作为决策形成的有效依据有待考量。算法失误往往隐秘而随机,即便是专业人士亦难以保证及时发现算法失误并修正。而且这些算法漏洞往往还被第三方不当利用。37计算法学Computational Law 2023 年第 10 期(第 42 卷总第 558 期)换言之,针对算法决策、行为及最终结论,目前缺乏专门的
16、理由或证据来完整有效地解释,“算法直觉”更无法作为支撑其决策的理由,因为算法并没有人类的“关联感”。2.3决策应用:损害结果的泛化从风险预测、贷款评估到医疗诊断、司法审判,多种事项都成为算法决策应用的对象。相对于人的主观决策,算法的自动化决策具有相对客观、公正、高效等特点5。但需要警觉的是,每一项技术自有其“阴暗的背面”。带有缺陷的算法模型一旦被泛化使用,给社会公众带来的危害不容小觑。比如,澳大利亚实行的“机器债”计划(Robodebt)中,自动追债系统通过数据匹配算法,旨在帮助政府追踪社会福利欺诈者。但该系统自动生成的债务账单中 20%都是基于错误信息。尽管事后查明,该算法基于税务局(ATO
17、)的年度收入数据与澳洲福利局(Centrelink)发放的福利补助进行交叉比对,是不充分的,存在系统性缺陷,但这些系统性缺陷和计算错误最终导致 2 030 人在收到自动债务账单后由于心理健康压力而选择自杀6。而这绝非个例。遗憾的是,对于这些“糟糕决定”的成因,目前尚且没有研发出一种完美的理论框架用来解释,更不必说快速纠正错误。因此,实践中,当算法一开始出现偏差时,即使初始结果的用户发现并及时反馈,由于决策涉及的海量内容信息,往往也难以迅速被修正,因此造成登记信息错误、驾驶执照被吊销、用人单位解雇等不同程度上的消极后果。3体系思维在算法解释中的价值由于实践中尚未形成统一规范和评价标准,解释主体作
18、出的回应与用户的解释需求之间存在偏差,其解释内容的完整度、有效性仍待提升,因而需要以体系思维完善算法可解释性,将算法解释的对象、方法、标准整合到算法解释体系之中。3.1解释需求的差异现今,人工智能通过深度学习和算法训练提高了表示能力,但与此同时算法模型的复杂度也在不断加码,即使作为专业人士的研发者、使用者得以破解,但承受算法决策结果的用户往往“一脸茫然”。另一方面,不同领域的用户基于不同的分析视角,对算法决策的解读各有侧重,由此产生在解释内容方面的需求差异。技术工作者往往关注不同的深度神经网络的解释理论和方法;信息工程研究者着眼于提供可解释的深度模型内容以及预测结果的决策依据7;生物学家则倾向
19、于为生物体的不同内部结构构建算法模型,以解读不同种类的动物行为、身体的发育、生物进化和生命的本质3。而从法教义学视角,算法决策的公平性是重点,可解释的算法模型则是保证决策公平性必不可少的一部分。近年来,将公平性纳入决策受到极大的关注。因此,在解决“算法黑箱”问题过程中,首先需要明确“对谁解释”,即目标对象的划分与选择,然后才是“怎么解释”,即解释方法与解释标准。3.2各种解释方法之间缺乏统一评估指标面对一个亟待被解释的算法决策,存在哪些解释方法可供选择、何种解释方法更能深入解释问题本质以及不同解释方法的同时适用会否导致结论不同甚至观点冲突,这都需要根据具体场域进行判断。但就各种解释方法的评判、
20、取舍,由于解释方法的逻辑原理、解释范畴的差异性,难以达成评估指标的统一。问题的关键在于,一个非常成功的算法可能并不适合让其他人工智能程序“借用”3。部分解释方法尽管运行原理简单,易于实现可解释目标,但适用场域十分有限;另有一些解释方法即使结构复杂,可解释实现难度大,但这类解释方法泛化能力较强,可供多场域广泛适用。有学者试图从自解释模型、特定模型解释、不可知模型解释、因果可解释性四个方面对解释方法进行分类8。还有学者基于解释“算法黑盒”模型的原理,将解释方法大致分为模型内部可视化、特征统计分析、本质上可解释模型7。但学界目前尚无统一评估依据。就此问题,本文认为,解释方法之间并无优劣,解释主体在解
21、释算法模型本身或决策结果时,不妨有效结合多种解释方法,充分发挥其各自优势,至于具体方法的选取,则取决于具体的应用场域。3.3解释标准尚未明晰算法无法完全像人一样针对各类情况进行灵活应对,如果算法设定向严,会导致用户无法获取真正有价值的内容,如果算法设定向松,则无法发挥应有的作用。因此,需要根据不同的意涵,设定不同程度的算法解释,通过对解释内容的准确把握,促使算法模型从不可解释状态向具备可解释性特征的方向转化。解释标准的确定往往出于对特定算法透明化程度的慎重考量,这也是对比例原则、公平性原则的贯彻。在法律规制上,现行法律呈现多元化、开放性的基本取向,比如 互联网信息服务算法推荐管理规定 第 12
22、 条虽明确了算法透明度和可解释性的要求及目标对象,但未规定二者异同,留下了多种解释方法和标准的空间。一个能够具象化的预设标准至关重要。罗马法中的“善良家父”便是构建标准的典型。发展至今,私法中的理性人标准以一个人格化的形象作为参照,个案评判中需要将理性人标准具象化,从而合理解决主体间利益冲突9。得鉴于此,有学者根据算法透明化程度,将解释内容区分为算法运用的告知47投稿网址:2023 年第 10 期(第 42 卷总第 558 期)义务、算法参数报备、算法参数公开以及源代码公开10。还有学者依据解释内容的层次性,提出通常情况下默认应达到适当解释的水平,初步解释与充分解释均作为特殊情况下的例外11。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 揭开 算法 面纱 关于 构建 解释 框架 思考
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。