算法决策场景中就业性别歧视判定的挑战及应对.pdf
《算法决策场景中就业性别歧视判定的挑战及应对.pdf》由会员分享,可在线阅读,更多相关《算法决策场景中就业性别歧视判定的挑战及应对.pdf(16页珍藏版)》请在咨信网上搜索。
1、 专 论文章编号:1001-2397(2023)04-0059-16收稿日期:2023-04-06基金项目:中央高校基本科研业务费专项资金资助(社会信用的法治化 信用需求与安全焦虑(20720191028)作者简介:胡萧力(1988),女,江西宜春人,厦门大学法学院副教授,法学博士。鸣谢:厦门大学法学院 2022 级法学硕士李抒涵同学收集整理相关文献资料。算法决策场景中就业性别歧视判定的挑战及应对胡萧力(厦门大学 法学院,厦门 361005)摘 要:就业性别歧视对女性求职者受宪法所保护的平等权、劳动权造成现实的侵害风险。对就业性别歧视判定标准问题,学界已有较为丰富的研究,但传统判定标准在算法时
2、代遭遇适用困境。算法掩盖下的就业性别歧视具有自主性、隐蔽性、延续性和结构性等特征,这不仅可能对求职者的权利主张造成过重的举证负担,亦无法解决算法供应商等第三方主体的归责问题。因此,应当从事前与事后两个维度,探讨对算法就业性别歧视进行有效规制的路径。在概念界定上,应通过扩充就业性别歧视概念的外延,将算法就业性别歧视纳入到反歧视法的规制范围内,使新加入的算法供应商等第三方主体参与到责任分担过程。通过在算法决策过程中引入技术性正当程序理论及其机制框架,搭建起权力主体配合下的“理解参与”模式,借助合规审计追踪、算法解释等方式,有效控制算法就业性别歧视的风险,保障女性求职者平等权和人格尊严等权益。关键词
3、:算法歧视;算法雇佣决策;就业性别歧视;技术性正当程序中图分类号:DF931.1 文献标志码:A DOI:10.3969/j.issn.1001-2397.2023.04.05 开放科学(资源服务)标识码(OSID):一、问题的提出和界定反就业性别歧视,尤其是反针对女性的就业歧视,是反歧视法领域经久不衰的议题。其关涉女性宪法上平等权与劳动权,以及由此派生出的平等就业权的实现,亦关乎女性社会地位与自我价值的实现。而就业性别歧视的判定标准,即“什么样的行为会被判定为法律上的就业性别歧视”则是952023 年 7 月第 45 卷 第 4 期 Modern Law Science Jul.,2023V
4、ol.45 No.4反就业性别歧视基础性也是关键性的问题。该问题一方面取决于立法所制定的判定标准,另一方面也受司法上判定规则、举证规则的影响。在女性求职就业的过程中,招录环节是整个就业过程的起始,在此阶段发生的性别歧视被称为狭义上的就业性别歧视。由于该类歧视直接影响女性就业机会的取得,因此,本文将讨论对象限定于狭义就业性别歧视的判定标准问题,下文所称就业性别歧视即指狭义上的就业性别歧视。2023 年 1 月,新修订的中华人民共和国妇女权益保障法(以下简称妇女权益保障法)正式施行,该法进一步强调了保障女性劳动权的重要性,其中,第 43 条就招录环节用人单位不得实施的行为进行了规定。从某种角度来看
5、,该条可以被视为以列举加归纳的方式在立法上确立了我国的就业性别歧视判定标准。然而稍作比较就会发现:该条虽然对中华人民共和国劳动法(以下简称劳动法)第 13 条、中华人民共和国就业促进法(以下简称就业促进法)第 27 条第 2 款,以及部分位阶较低的规范性文件所规定的以直接歧视为规制对象的判定标准有所细化,但对于如何判定因表面中立的行为所导致的结果上的间接歧视,却并未作规定。即便仅从直接歧视的角度进行审视,上述立法所规定的判定标准亦存在过于抽象、宽泛的问题。从司法实践来看,人民法院对就业性别歧视判定规则同样缺乏共识性的统一标准,只是在劳动争议、侵权责任和缔约过失等不同案由下形成了不同的审查基准,
6、这削弱了司法在反就业性别歧视中应有的作用。随着时代的发展,老问题尚未得到解决,新问题又悄然涌现。特别是随着算法技术逐渐应用到用人单位雇佣决策的过程中,算法歧视这一新形态的歧视出现在了就业领域,其无论是对已有的判定标准还是相关研究都构成了极大的挑战。在上述背景下,如何利用我国反歧视法律制度的后发优势,更好地应对算法对就业性别歧视现有判定标准所带来的挑战,是一个值得关注的重大理论和实践问题。二、就业性别歧视在算法雇佣决策中的生成根据1958 年消除就业和职业歧视公约第 1 条第 1 款,就业性别歧视是指:基于性别的原因,具有取消或损害就业或职业机会均等或待遇平等影响的任何区别、排斥或优惠。在此基础
7、上,间接歧视概念的出现又使表面中立,但实际上可能或已经导致某一性别的群体在就业上处于不利地位的行为被归入就业性别歧视的外延中。算法歧视的诞生使歧视的形态更加隐蔽、多元,其形成过程所涉及的主体、行为也更加复杂,增加了判定就业性别歧视的难度。应对算法歧视对传统就业性别歧视判定标准所带来的挑战,首先需要理解算法就业性别歧视与传统的直接、间接歧视在生成原理上存在何种区别,进而有针对性地探究解决方案。算法歧视诞生于算法决策的过程中。算法决策运作的基本原理是利用算法对大数据中的特征、关系、类别进行挖掘识别,而后借助算法模型来预测对象的行为,并以此为基础作出响应的决06 现 代 法 学 2023 年第 4
8、期人力资源社会保障部等九部门印发关于进一步规范招聘行为促进妇女就业的通知(2019 年)。关于间接歧视的判定标准,在广东省深圳市人大常委会于 2012 年 6 月 29 日审议通过的深圳经济特区性别平等促进条例第 5条中有所提及,但由于该条例属地方性立法,而本文此处主要研究我国总体的立法情况,因此,在正文中不予呈现。参见王理万:就业性别歧视案件的司法审查基准重构,载妇女研究论丛2019 年第 2 期,第 55 页。策。具体到算法雇佣决策的语境下,首先需要由用人单位等算法使用者制定决策目标,同时,收集合适的训练数据集;随后,算法程序员根据问题的类型选择并优化算法,并将用人单位的招聘需求转译为具有
9、相关性的可测量特征或称“结果变量”,与现有员工情况等训练数据集一起输入到算法中。随着算法的迭代更新,新模态的“机器学习算法”甚至无需借助程序员所输入的知识与程序,而是利用“深度学习”等方式自主地筛选数据中有意义的特性并学习其中的决策模式,并通过反复的训练和调适,获得无限逼近需求目标的数据模型。这套数据模型最终被用以预测哪些求职者可能在公司内创造更大的价值,从而实现对求职者数据的分析并做出筛选。算法具有中立的外表,而歧视则来源于人的主观认知,是对不同人群的偏见在具体行为上的反映。观察算法雇佣决策中主观偏见的来源及其融入决策过程的方式,可以将算法就业歧视进一步区分为因抽样偏见导致的算法就业歧视和因
10、设计偏见导致的算法就业歧视。前者源于训练数据集中样本的“质”和“量”,或者说样本在中立性与代表性上的偏差。如果训练数据集中原本就存在对某一群体的偏见,或其中某些群体的代表名额不足或过多时,算法就业歧视就可能发生。例如,如果用人单位过去长期对男性劳动者作出了较女性劳动者更高的评价,或是雇佣了远多于女性职员的男性职员时,算法就可能会识别出历史数据中的偏好与选择模式,并在无意中复制这种偏见,形成对男性劳动者的偏好。而因设计偏见所导致的算法就业歧视同样可以被分为两类:其一,硬件、软件、设备等技术所存在的客观限制,可能导致模型和决策不准确,进而产生算法歧视;其二,算法程序员将用人单位对岗位及求职者的需求
11、进行“转译”并输入算法时,对目标、需求等因素的转译可能出现偏差,从而导致算法就业歧视的出现。在很多情况下,用人单位决策目标中的某些词汇往往缺少具体、客观的定义,例如,“优秀”“忠诚”等,此时算法程序员在进行转译过程中,难免掺杂个人的偏见或是陷入“伪中立的陷阱”。又如,以“出勤率”作为挑选“忠诚的”员工这一目标需求的结果变量,表面上看是合理且中立的,但妇女权益保障法规定,孕期女职工享有休产假的权利,因此,相较于男性职工,女性职工请假的需求及时间就会更多。此时,如果算法通过数据挖掘识别到结果变量与性别这一受保护特征之间的关联性,就可能使与“怀孕”“母婴”等词语相关的数据成为“出勤率”的表征数据,导
12、致就业性别歧视的结果。至此,我们可以归纳出算法就业歧视的三个特征。第一,在使用机器学习算法的情况下,算法雇佣决策的核心步骤几乎完全由算法自动完成,由此产生的算法就业歧视具有明显的自动化决策的特征。第二,机器学习算法可以自主地完成数据挖掘、选择与模型建构,这使得人们难以判断算法在学习过程中识别到了哪些数据,又提炼出哪些特征,因此,很难对算法决策的过程及原理进行完全准确的解释,导致算法“黑箱”,形成了算法就业歧视隐蔽性的特征。第三,算法就业歧视具有延续性、结构性,这种特征在性别的语境下又更加突出。无论是因抽样偏见还是因设计偏见产生的16胡萧力:算法决策场景中就业性别歧视判定的挑战及应对参见刘泽刚:
13、论算法认知偏差对人工智能法律规制的负面影响及其矫正,载政治与法律2022 年第 11 期,第 55 页。See Natalie Sheard,Employment Discrimination by Algorithm:Can Anyone Be Held Accountable?,University of New South Wales Law Journal,Vol.45:2,p.625-627(2022).李成:人工智能歧视的法律治理,载中国法学2021 年第 2 期,第 136 页。参见汤晓莹:算法雇佣决策下隐蔽就业歧视的法律规制,载河南财经政法大学学报2021 年第 6 期,第 7
14、7 页。算法就业歧视,本质上都是既存的结构性偏见在算法决策过程和结果层面的投射。就本文所讨论的性别平等问题而言,长期以来,女性的不平等地位深深地扎根于传统观念和刻板印象之中,这种内在的偏见通过人与人之间的互动交往,影响到资源在不同性别群体间的分配,最终构建出一个对男性群体整体有利的社会权力结构。这种结构性不平等具有延续性,可能伴随代际更迭延续存在,并对相关的信息和数据产生影响。这意味着,结构不平等和观念上的刻板印象,本身就可能对数据源造成“污染”。由于算法决策需要通过分析数据而进行预测和决策,因此,一旦在就业领域的数据受到不平等权力结构的影响,算法对这些数据的学习,将可能“复制”隐藏于数据中的
15、不平等因素,延续甚至强化就业场景中的性别不平等,陷入算法的“自我强化困境”。目前,技术尚无法完全消除算法训练数据集中的偏见,亦难以有效排除结构性不平等对新数据的影响。正如学者梅森(Mayson)所指出的,算法歧视实际上成为一个“偏见进,偏见出”的过程。在这个意义上,算法如同一面用以观测未来的“预测之镜”,但对未来的预测需要依据过去的数据和结构化框架,因此,在逻辑上和实践中,这种预测很可能将过去的不平等投射到未来。三、算法就业性别歧视对传统就业性别歧视判定标准的挑战面对包括算法就业性别歧视在内的就业歧视问题,有学者提出可通过借鉴域外法中就业歧视判定标准的方式加以应对。的确,域外尤其是欧美国家由于
16、平权运动的发展和技术先发效应,已形成了一套较完整的就业歧视判定体系,而就业性别歧视的判定便是其中一个方面。就业性别歧视的判定以直接歧视与间接歧视为基础,设置了较为完整的判定标准及举证规则,总结出了一套包含主体要件、行为要件、因果关系、行为后果要件、主观要件以及合理抗辩事由在内的就业歧视构成要件体系。虽然不同国家的判定标准存在或大或小的区别,但从整体上看,可依据歧视的成立是否要求原告证明被告具有歧视的故意这一要素,可以将就业歧视的判定标准大致分为两类:其一是以美国为代表的“主观主义”模式;其二是以英国、欧盟为代表的“客观主义”模式。然而,进一步的分析将发现,面对新形态的算法歧视,欧美传统的就业性
17、别歧视判定标准力有所不逮,不仅可能给求职者或用人单位施加过重的举证负担,亦无法解决新加入的算法供应商等第三方主体的归责问题。(一)直接歧视判定标准及其面临的挑战直接歧视又被称为“差别对待歧视”。针对女性的直接歧视表现为基于性别,剥夺、限制女性的26 现 代 法 学 2023 年第 4 期参见李成:人工智能歧视的法律治理,载中国法学2021 年第 2 期,第 130 页。参见贾开:人工智能与算法治理研究,载中国行政管理2019 年第 1 期,第 20 页。See Sandra G.Mayson,Bias in,Bias out,Yale Law Journal,Vol.128:8,p.2224(
18、2019).参见杨成越、罗先觉:算法歧视的综合治理初探,载科学与社会2018 年第 4 期;侯玲玲、王超:人工智能:就业歧视法律规制的新挑战及其应对,载华东理工大学学报(社会科学版)2021 年第 1 期;汤晓莹:论职场领域算法技术风险法律规制的理念与路径,载贵州师范大学学报(社会科学版)2021 年第 5 期;汤晓莹:职场监视 5.0 下劳动者个人数据保护的困境与出路,载北京社会科学2019 年第9 期;汤晓莹:算法雇佣决策下隐蔽就业歧视的法律规制,载河南财经政法大学学报2021 年第 6 期;唐芳:对妇女的就业性别歧视界定与妇女权益保障法相关立法完善,载中华女子学院学报2021 年第 6
19、期等。参见谢增毅:美英两国就业歧视构成要件比较 兼论反就业歧视法发展趋势及我国立法选择,载中外法学2008 年第 4 期,第 613 页。就业权利。例如,以对女性的刻板印象拒绝雇佣某人,或缺乏合理理由对男性和女性进行差别化招聘等。由于直接歧视是一种较为明显、直观的歧视,因而无论在英国还是美国,其判定的核心都在于是否存在非基于合理事由的差别对待或歧视行为,且对该法律事实的证明责任通常由原告承担。不同的是,采取“客观主义”模式的英国对用人单位是否存在歧视动机并不考虑,而采取“主观主义”模式的美国则恰好相反。在此基础上,美国还进一步根据是否可以直接表明被告具有歧视的故意,将就业歧视案件分为“直接证据
20、”案件、“间接证据”案件以及“混合动机”案件三类,并匹配不同的举证规则,但原告依然要承担证明被告存在歧视动机的最终责任。与直接歧视不同的是,算法歧视往往形成于外观上中立的数据,在技术理性的外衣之下,这种歧视具有隐蔽性特征。因此,在讨论算法歧视对直接歧视判定标准构成的挑战之前,我们首先需要追问:在算法歧视的语境下,直接歧视的概念及其相关判定规则是否仍然适用?回答好这一问题,需要回溯至判定直接歧视的根本要点,即被告是否基于性别等受保护特征而对不同主体加以区别对待。上文提到,在算法雇佣决策的过程中,存在一个将目标需求转译为关联特征,并进行特征选择的过程。此时,如果被告方公然在特征集合中纳入性别等受保
21、护特征,就可能“教唆”算法输出歧视性结果。或者,即便被告方尝试剥离数据中的性别等受保护特征,算法也可能识别到数据与性别等受保护特征之间的潜在关联,进而做出具有歧视性的决策,此时亦可以认定差别对待行为是基于性别等受保护特征而作出的。因此,在判定算法歧视场景中,直接歧视判定标准依然存在适用空间。不过,算法歧视对直接歧视判定标准所带来的挑战也显而易见,因为二者在歧视行为的表现上存在根本差异。直接歧视是明显的、易于感知的,而算法歧视是隐蔽的、不易察觉的。在直接歧视的举证规则中,原告方证明的核心任务是“歧视行为存在”和“歧视行为非基于合理理由”;在“主观主义”模式下还需要证明被告“具有歧视的意图或动机”
22、。但在算法雇佣决策的情境下,求职者作为被动方难以了解用人单位对自己的哪些信息进行了收集,算法程序员又利用了什么样的算法技术进行雇佣决策。算法歧视的隐蔽性又进一步使求职者难以证明算法在作出决策时依据的是什么标准,该标准又是否与性别等不合理理由相关。同时,随着机器学习技术被普遍应用于算法模型,算法决策的自主性不断提升,很多时候算法歧视的生成并非源于用人单位或者算法程序员的歧视故意。此时,如果要求求职者证明这种主观恶意的存在便成为一种苛求。可以说,在算法权力日益扩张的当下,求职者等个体必然处于“信息差”的弱势一方,这种弱势地位在就业这一特殊语境下又被进一步放大。求职者为获取就业机会,只能被动地默许算
23、法对个人信息的分析、选择和决策,但却无法获知雇佣决策过程中的关键步骤与信息。因此,面对算法歧视,传统的直接歧视判定规则施加于原告方的证明责任显然过重,甚至是不可能完成的任务。(二)间接歧视判定标准及其面临的挑战36胡萧力:算法决策场景中就业性别歧视判定的挑战及应对参见谢增毅:美英两国就业歧视构成要件比较 兼论反就业歧视法发展趋势及我国立法选择,载中外法学2008 年第 4期,第 615-617 页。参见汤晓莹:算法雇佣决策下隐蔽就业歧视的法律规制,载河南财经政法大学学报2021 年第 6 期,第 78 页。参见李成:人工智能歧视的法律治理,载中国法学2021 年第 2 期,第 135 页。相比
24、较而言,间接歧视或称“差别影响歧视”,与算法歧视更为类似。依据反歧视法的一般发展规律,随着反歧视法的适用与普及,明显且带有恶意的直接歧视逐渐减少,而以更隐蔽的方式存在的间接歧视日益增多。受历史沿革与传统观念的影响,人的认知可能在不存在明确动机的情况下,潜移默化和不知不觉地将人群归类,并在此过程中形成偏见和无意识的歧视。这种无意识的歧视被表面中立的制度、社会规范确认后,就可能形成结构性不平等,进一步加大间接歧视发生的可能性。具体到就业问题上,尽管性别平等在我国已经成为不言自明的规范准则,但受历史惯性、社会习俗、文化多元等因素的影响,我国的女性就业平等权保护制度仍然呈现出“轻机会平等保护、重特别权
25、益保护”的特征。女性在就业领域所处的不平等地位更多地受到机制上的路径依赖、有关两性社会角色的刻板印象等因素的影响,就业性别歧视也逐渐呈现出隐蔽性、延续性、结构性等特征。类似地,算法歧视同样是一种无意识的、隐蔽性的歧视,且往往是长期存在的结构性歧视在算法中的投射与转译。由此可见,间接歧视与算法歧视之间存在明显的相似性。也正因为此,间接歧视判定规则在反算法就业歧视中的适用已引起一些学者的关注。具体来说,在间接歧视案件中,对歧视的判定有两个关键步骤。首先,一般应由原告提出表面证据证明不利状态或差别影响的存在,而这一证明步骤主要借助有关雇佣结果的统计数据来完成。就国外情况而言,目前广泛适用的是美国法院
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 算法 决策 场景 就业 性别 歧视 判定 挑战 应对
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。