人机信任校准的双途径:信任抑制与信任提升.pdf
《人机信任校准的双途径:信任抑制与信任提升.pdf》由会员分享,可在线阅读,更多相关《人机信任校准的双途径:信任抑制与信任提升.pdf(16页珍藏版)》请在咨信网上搜索。
1、心理科学进展 2024,Vol.32,No.3,527542 2024 中国科学院心理研究所 Advances in Psychological Science https:/doi.org/10.3724/SP.J.1042.2024.00527 527 人机信任校准的双途径:信任抑制与信任提升*黄心语 李 晔(华中师范大学心理学院暨青少年网络心理与行为教育部重点实验室,武汉 430079)摘 要 信任是人机成功合作的基础。但个体在人机交互中并不总是持有恰当的信任水平,也可能会出现信任偏差:过度信任和信任不足。信任偏差会妨碍人机合作,因此需要对信任进行校准。信任校准常常通过信任抑制与信任提升
2、两条途径来实现。信任抑制聚焦于如何降低个体对机器人过高的信任水平,信任提升则侧重于如何提高个体对机器人较低的信任水平。未来研究可进一步优化校准效果评估的测量方法、揭示信任校准过程中以及信任校准后个体的认知变化机制、探索信任校准的边界条件以及个性化和精细化的信任校准策略,以期助推人机协作。关键词 信任校准,信任偏差,信任抑制,信任提升,人机交互 分类号 B849 1 引言 信任广泛存在于任何关系的建立与发展之中,如亲密关系(Rempel et al.,1985)、消费关系(Kwon et al.,2021)、组织关系(Meng&Berger,2019)、医患关系(Petrocchi et al.
3、,2019)等。它不仅是人际交往的重要因素,也是社会发展的润滑剂(乐国安,韩振华,2009)。随着机器人逐渐走进人们的生活,研究者们发现信任也存在于人机交互之中(Hoff&Bashir,2015;Khavas,2021)。本文结合前人的研究(高在峰 等,2021;Lee&See,2004;Mayer et al.,1995),将人机信任定义为:个体在情境不确定或具有脆弱性时,对机器人能帮助己方实现目标或不会利用己方弱点所持有的信心和心理预期。信任对于人机交互至关重要,它不仅是人类使用与接受算法的前提(Sanders et al.,2019),也是人机合作的基础(Esterwood&Robert
4、,2021)。本文主要关注人与智能机器人、算法、人工智能之间的交互,且以人与智能机器人之间的交互为主。以智能机器人为例,人机交互中,个体对智能机器人的信任水平可能过高,也可能过低,收稿日期:2023-06-23*国家自然科学基金面上项目(72371113;71771102)资助。通信作者:李晔,E-mail: 前者为过度信任(Over-trust),后者为信任不足(Under-trust)。过度信任会导致人们对智能机器人不恰当的依赖和误用(Misuse),信任不足则会导致弃用(Disuse)。信任不足和过度信任都会破坏人机交互系统的价值(Hancock et al.,2011),因此个体需要在
5、感知可靠性和实际可靠性之间进行准确校 准(Calibration)以 保 持 恰 当 的 信 任 水 平(Madhavan&Wiegmann,2007)。当个体拥有校准良好的信任时,他/她就知道何时应该信任机器人,何时不应该信任机器人(Ali et al.,2022)。人机信任往往通过两条途径进行校准:信任抑制(Trust dampening)与信任提升。信任抑制聚焦于如何降低个体不切实际的较高信任水平,信任提升侧重于如何提升个体过低的信任水平。需要注意的是,本文将提升个体过低信任水平的途径命名为“信任提升”,而非以往研究中经常使用的“信任修复”(Trust repair)。我们认为“信任修复
6、”强调的是怎样改善个体在机器人出现信任违背(Trust violation)后的过低信任水平,它并没有把如何提升个体初始信任水平过低的情况包括在内。相比之下,“信任提升”能更好地囊括和反映该校准途径的内容。国外研究者们针对人机信任校准开展了大量研究(Alarcon et al.,2020;de Visser et al.,2020;Ososky et al.,2013),考察了人机信任偏差的成因,并提出了相应的信任校准策略,但这些研究还比较分528 心 理 科 学 进 展 第 32 卷 散,缺乏对该领域实证研究的系统整合与梳理;另外,目前针对人机信任校准策略的有效性尚存在争议,且以往研究大多只
7、关注信任偏差的其中一方面(比如信任不足或过度信任),忽略了从整体视角去整合信任偏差、信任校准有关研究的必要性与重要性。基于此,本文从人机交互中可能出现的信任偏差成因入手,梳理人机交互过程中机器人、个体本身、情境是怎样影响信任偏差的,以及如何通过信任提升与信任抑制两条途径校准人机信任、纠正信任偏差(见图 1);本文也试图厘清人机信任校准策略的边界条件,并在此基础之上提出未来研究展望。2 人机信任偏差 在本文中,我们将个体在人机交互中表现出来的过度信任和信任不足统称为人机信任偏差,即个体由于对机器人能力的错误估计导致信任偏离校准值。人机信任偏差会导致个体信任比人类更不可靠的算法,或不信任比人类更可
8、靠的算法(Dzindolet et al.,2003)。2.1 人机信任偏差的危害 过度信任往往出现在个体认为机器人具备人类没有的功能,或个体期望机器人能帮助他们降低风险的情境下(Borenstein et al.,2018;Parasuraman&Riley,1997)。过度信任会直接导致个体高估机器人的能力,亦常常伴随有决策错误的风险,例如盲目地接受机器人智能体(Agent)提出的所有决策方案却不加考虑该决策是否合理(Khavas,2021;Khavas et al.,2020);过度信任有时甚至会对个体的生命造成威胁。Borenstein 等人(2018)发现尽管目前最先进的机器人外骨骼
9、只能在低速慢走等有限条件下为运动残疾儿童提供一定的辅助功能,但是仍有很多运动残疾儿童的家长认为当他们的孩子进行某些风险运动(例如攀爬)时,外骨骼也可以保护他们的孩子不受伤害。这种过度信任机器(人)带来的危险同样出现在交通驾驶中:那些对于自动驾驶汽车高度信任的司机更容易在驾驶过程中出现打瞌睡的情况(Kundinger et al.,2019),从而增加出现交通事故的可能性。与过度信任相比,信任不足的危害较小,但是对于算法的信任不足往往会使个体倾向于低估算法能力(Parasuraman&Riley,1997),不能很好地利用算法,也无法享受使用算法所带来的好处(Ali et al.,2022),最
10、终在人机协作情境中恶化整体绩效,降低人机团队效率(Okamura&Yamada,2020)。2.2 人机信任偏差之因 2.2.1 与机器人有关的因素 可靠性。机器人本身与性能相关的因素,在人机交互之初对人机信任的影响很大(Robinette et al.,2017b)。以可靠性(Reliability)为例,它指代机器人性能具有前后一致性(Hancock et al.,2021)。一个可靠的机器人,应该具备可预测、性能稳定等特点。机器人的可靠性既可能诱发过度信任,也可能诱发信任不足(Shi et al.,2020)。具体来说,如果人们察觉到机器人的能力是可靠的、稳定不变的、可预测的,就极有可能
11、放松对机器 图 1 人机信任偏差之因以及校准策略 第 3 期 黄心语 等:人机信任校准的双途径:信任抑制与信任提升 529 人的实时监测,表现出对机器人的过度信任;反之则容易出现信任不足。正如前文所述,机器人性能与可靠性密切相关,而人机交互之中机器人错误的出现则会诱发信任违背,导致信任方(个体)对受信方(机器人)的信任意向或信任信念降低(严瑜,吴霞,2016;Kim et al.,2009)。错误诱发信任违背的原因主要有二:一是错误会让人们怀疑算法 的 可 靠 性 较 低,进 而 造 成 信 任 水 平 下 降(Alarcon et al.,2020;Correia et al.,2018;L
12、ee&Moray,1992);二是人们往往对于算法错误这类信息的敏感性较高,无法容忍算法出错,一旦算法出错就会直接弃用(Dietvorst et al.,2015)。另外,错误发生的频率、严重程度、数量也会影响信任水平的变化(Rossi et al.,2017),错误发生的越频繁、越严重、数量越多,就会导致信任水平下降速度越快、幅度越大。除去机器人的明显错误以外,一些意料之外的、非预期行为同样也会导致信任违背。Lyons 等人(2023)发现当机器人行动路线偏离参与者原本设定的路线之后,参与者对机器人的信任感知和可信度感知均下降。值得一提的是,针对错误是否会导致个体对机器人的信任下降,有研究者
13、提出了相反的观点。例如 Sarkar 等人(2017)指出,错误不会影响参与者对机器人可信度的感知和后续的人机协作任务绩效,但他们同时也承认了在该实验中任务性质(任务困难且要求高)、犯错类型(仅涉及认知错误:给参与者错误指导,但不会妨碍其完成任务)等因素的影响。有趣的是,机器人的错误有时甚至被感知为可爱(Ragni et al.,2016)。当机器人犯错之后,人们会觉得它更具有人类相似性、更讨人喜欢(Mirnig et al.,2017;Salem et al.,2013),一个完美的机器人反倒会看起来更不自然(Biswas&Murray,2015)。这也印证了在人机互动中同样存在“出丑效应(
14、Pratfall effect)”。在“剪刀石头布”游戏中,当机器人出现口头作弊(明明输了却声称自己赢了)或行为作弊(在看到对方出拳之后改变自己的原本答案)时,相比于无作弊行为的控制组机器人,人们在作弊条件下与机器人的社会互动明显增加,也更容易被机器人的作弊行为所逗乐,尽管他们主观上认为作弊是不公平的(Short et al.,2010)。化身。人机交互中,化身(Embodiment)对信任也有一定影响,化身是指机器人的形态是实体或虚拟(van Maris et al.,2017),主要划分为物理化身(Physical embodiment)和 虚 拟 化 身(Virtual embodime
15、nt)。物理化身指机器人在三维空间中具备一个有形的、物理的身体,能自由移动或操纵环境(Haring et al.,2021);而虚拟化身(例如虚拟机器人)仅呈现在电子屏幕上,虽然拥有虚拟身体,但活动范围受限制。相较于虚拟呈现,人们更喜欢与物理呈现的机器人进行交互。物理化身会通过社会临场感(Social presence)影响信任,唤起个体对机器人的积极态度,将机器人视为社会行动者(Social actor),进而对其作出社会化反应(Jung&Lee,2004)。尤其当机器人的位置非常显眼,会无形增大个体依赖于它们的概率(Robinette et al.,2017a)。Bainbridge 等人
16、(2011)发现,相对于远程呈现机器人,当机器人是以实体形态与参与者交互时,参与者对机器人不寻常命令的服从率会更高。在实体机器人形态条件下,尽管参与者都犹豫并感到困惑,但 22 名参与者中有 12 名还是听从机器人的指示将书本扔进了垃圾桶;相比之下,远程呈现机器人条件下仅有 2 或 3 名参与者服从了这个命令。需要说明的是,在该研究中服从机器人的命令被视为参与者信任机器人的表现。2.2.2 与个体有关的因素 动机。过度信任可能出于人们社会惰性(Social loafing)的动机,即相较于自己单独工作,人机协作中个体付出的努力更少(Onnasch&Panayotidis,2020;Parasu
17、raman&Manzey,2010)。当个体与机器人一起工作时,责任可能在个体和机器人之间分散,因此人机协作情境中更有可能出现“搭便车”效应(Dzindolet et al.,2002)。Cymek等人(2023)的研究中发现,尽管单独工作组和与机器人协作组的参与者都自我报告在任务中投入了大量精力,但对比工作绩效发现单独工作组的参与者明显比机器人协作组的参与者任务绩效更高。Cymek 等人推测在实验阶段前四分之三的时间中,机器人协作组发现机器人的可靠性很高,因此在任务最后阶段放松警惕,未能及时察觉出机器人犯错。自我信心。当个体的自我信心超过对自动化的信任时,个体更可能在人机交互中依靠自己;当个
18、体对自身信心不足,则可能转向依赖于自动化(Lee&Moray,1994)。在后一种情况下极易诱发过度信任,不仅仅因为人们认为算法较为权威,530 心 理 科 学 进 展 第 32 卷 而人类的权力更小(Shank et al.,2021)、更弱势,也因为与人类决策相比,算法决策更为可靠、更准确(Mosier&Skitka,1996)。Dijkstra(1999)的研究中,算法专家系统无论法律案件的具体情况如何总是认定罪犯有罪,参与者最后需要评估是否接受该系统的意见。研究结果发现,尽管参与者有更好的选择(例如听从人类律师辩护词的建议),但他们最终更乐于听从算法专家系统的建议,即使建议是错误的。那
19、些乐于听从算法专家系统的参与者对算法专家系统的评价更积极,权威依从得分更高。Xu 等人(2018)也发现相对于人类治疗师而言,人们更加信任机器人治疗师,并且伴随有过度信任的风险。算法态度。算法态度是个体对算法的认知、情感和行为倾向的总和。算法欣赏(Algorithm appreciation)与算法厌恶(Algorithm aversion)就是两种典型的算法态度。算法欣赏会促使个体积极趋近算法决策,进而表现出对于算法的过度信任。Logg 等人(2019)发现,即使无法判断算法或人类决策的正确性,当参与者认为决策是来自算法而不是人类时,即便两者给出的决策内容实质是一样的,他们也更容易依赖算法,
20、且这种算法欣赏效应具有跨主客观任务的一致性。个体对于机器人过高的信任也隐含了对机器人的性能期望(Lyons et al.,2020;Shin et al.,2020)。算法欣赏可能与高期望有关。期望越高,初始信任水平就会越高。一方面,高期望来自于对机器人外表的认知,例如机器人的拟人化(Anthropomorphism)会增强个体信任(van Pinxteren et al.,2019);另一方面,高期望可能是缺失真实互动体验的结果。例如在一项研究中,当机器人在完成任务的同时报告“Q 值”(一串数字代码),结果不管是否具备 AI知识经验的参与者都认为 AI 更加可靠,认为越难以理解的 AI 越聪
21、明(Ehsan et al.,2021)。低 信 任 水 平 也 与 算 法 厌 恶 息 息 相 关。Chiarella 等人(2022)发现,两幅由同一位画家用不同色彩的颜料创作的绘画作品,仅仅通过操纵画作著者是人类还是 AI,就会影响人们对于画作的审美评分,具体表现为人们对“AI”作品的评分更低。算法厌恶可能是由于目前大众对机器人的实际接触较少,加之某些网络媒体对 AI 威胁的恐吓性报道和大肆宣扬(例如 AI 会统治世界、未来将发生人机大战等)(Demir et al.,2019),无形中加剧个体对机器人的负面态度,进而造成个体对机器人的消极印象。算法厌恶也可能是消极信任转移(Trust
22、transfer)的后果(Okuoka et al.,2022),如果个体之前对于计算机、手机等机械类产品有较糟糕的使用体验与经历,这种消极态度也会迁移到与算法有关的新兴产品上(Lee&Kolodge,2020)。心理模型。心理模型(Mental models)是经过组织的知识结构,亦是对工作环境的认知表征;人们使用心理模型来预测和解释他们周围世界的行为,并建构预期(杨正宇 等,2003)。在人机交互的研究中,心理模型可以帮助个体更好地通过线索推断机器人的内在状态并预测它的能力(Lee et al.,2005)。但是,由于心理模型是建立在个人经验的基础之上的,如果有新的经验发生,心理模型也会随
23、之改变,因此个体之间的心理模型很可能各不相同(Mller et al.,2023)。人机信任校准的前提是人们能正确、全面、客观地看待机器人的优势与劣势,换句话说,个体需要具备恰当的心理模型以表征和理解机器人的能力。举例来讲,人机交互中,只有当机器人发出的信号被人类用户恰当解释时,人类才可以预测和理解机器人的行为(Breazeal,2003)。因此,如果个体拥有对机器人恰当的心理模型,就能较好地校准信任,反之则会由于对机器人的能力估计错误而导致信任偏差(Ososky et al.,2013)。2.2.3 与情境有关的因素 风险与时间压力。高风险条件或许会增大个体信任机器人的概率。Robinett
24、e 等人(2016)研究中,参与者在机器人的带领下前往会议室。机器人的带领路线有两种类型,一种是迂回的低效率路线,一种是不迂回的高效率路线。采用迂回路线带领参与者前往会议室的机器人被视为低能力的机器人。当参与者到达会议室后听到警报,需在一分钟之内立刻逃离这栋大楼。所有的参与者都跟随了机器人,甚至忽略了之前机器人的低能力。时间压力也会加剧过度信任,如果参与者感知到时间紧迫,更有可能向机器人寻求帮助,尽管之前已经观测到它出现过错误(Xu&Howard,2018)。决策领域特点。有研究者认为,与人类相比,人们对于算法是厌恶或欣赏的关键决定因素是该智能体背后的专业能力(Hou&Jung,2021)。如
25、果第 3 期 黄心语 等:人机信任校准的双途径:信任抑制与信任提升 531 个体认为算法在某方面的专业能力不及人类,则有可能出现算法厌恶。譬如在医疗诊断中,人们在大多数情况下会认为人类决策优于算法决策,一方面是因为人类决策会让个体感到更有尊严,相 比 之 下 算 法 决 策 会 给 人 们 带 来 非 人 化(Dehumanization)体验(Formosa et al.,2022)。而另一方面,当涉及到需要进行自我披露时,与机器人相比,人们也更愿意去信任人类,对人类的披露欲也更强(Barfield,2021)。与此同时,决策领域的确定性程度也会影响人们是否使用算法。随着决策领域中不确定性的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人机 信任 校准 途径 抑制 提升
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。