生成式人工智能时代人机对话的传播伦理风险及其应对.pdf
《生成式人工智能时代人机对话的传播伦理风险及其应对.pdf》由会员分享,可在线阅读,更多相关《生成式人工智能时代人机对话的传播伦理风险及其应对.pdf(12页珍藏版)》请在咨信网上搜索。
1、人工智能与信息社会 年第 期生成式人工智能时代人机对话的传播伦理风险及其应对董 浩摘 要作为人类社会中的一种新型对话,人机对话是否符合传播伦理规范,不仅是一个交流合规问题,同时也是一个事关传播秩序稳定与否的问题。生成式人工智能()时代人机对话主要存在因“语言区隔”导致的人机“交流的无奈”、交往的工具理性化、话语失范与污染引发的语言攻击、机器沉迷引发的社会越轨行为、隐私侵犯行为与信息茧房效应的加剧等传播伦理风险问题。可采取增强公民的媒介素养、建立适恰的人机对话传播伦理规范、采取措施将机器“道德化”、制定规范人机对话传播风险的法律法规等措施进行应对。关键词 时代 人工智能 人机对话 传播伦理作者简
2、介:董浩,新闻学博士,南京林业大学人文社会科学学院讲师,南京林业大学文旅产业与城市传播研究中心研究员。基金项目:国家社会科学基金一般项目“网络直播中的越轨行为及伦理研究”();江苏高校哲学社会科学研究一般项目“强化显政的尺度及其把握”();江苏省社会科学基金一般项目“传统礼仪视域下网络直播失范行为及规制研究”()。一、文献综述与问题的提出自 年图灵()发表思考人机对话的经典之作计算机器与智能()以来,人机对话问题就开始成为计算机界、人文社会科学界研究的热点话题。年 月,在美国汉诺斯小镇召开的达特茅斯会议上,专家提出的用机器来模仿人类学习以及其他方面智能的“人工智能”理念与后续计算机技术的发展,
3、尤其是人工智能技术发展思路的转变,即从“以主要发展(,专用人工智能)”向“以(,通用人工智能)的突破带动 的发展”的转变,如围棋领域的、医疗领域的 以及日常生活领域的 和 等,更是让人机对话从理念一步步走向现实。年,的发展,更是让人机对话实现了飞跃式的突破,迎来了“奇点时刻”。简单来讲,所谓人机对话,是指随着工业革命的不断开展,各种各样的机器应用到社会生活的各个领域,机器越来越成为人类交流对话的对象,人类希望通过语言文字等自然语言与机器进行交流。但人工智能与信息社会这种美好交流愿望的实现并不是一蹴而就的,而是经历了一个漫长的发展历程。总之,人机对话可归纳为三个发展阶段:人机书面语对话阶段、人机
4、语音对话阶段、人机拟人化对话阶段。在人机书面语对话阶段,人机对话主要是指人类通过打字机、键盘、鼠标、屏幕等方式,实现与计算机等机器进行交流。譬如以“图灵测试”()为代表的人机对话研究实验,就是一个“猜性别游戏”实验 图灵将一个被测试者与分处两个房间的对象进行对话,其中,一名对象的性别为男性,另一名为女性。在游戏中,男性参与对象被要求假装以女性的语气表达,而女性参与对象则以女性本色参加。后来,图灵用一台机器取代了男性参与者,再让被测试者仅凭通过电传打字机的对话来分辨出对象的性别 检验人类能否在“杜绝视觉、听觉和触觉交流等一切可能导致双方身体碰触途径,仅留下文字,而且是剥离了任何歪歪斜斜手迹的文字
5、”的情况下,实现与机器的交流、对话,正确猜出对话的一方是男性、女性还是机器。从图灵测试可知,早期的人机对话相对简单,还不够智能。因此,在人机书面语对话阶段,人机对话不涉及对话的传播伦理问题。世纪 年代以来,随着计算机的发明以及编程语言的发展,特别是 年美国麻省理工学院教授约瑟夫 维森鲍姆()开发;第一个成功实现人机语音对话的计算机软件,也被称为聊天机器人的“伊丽莎”,人机对话逐渐从人机书面语对话进入人机语音对话阶段。由于“伊莉莎”对话效果出奇的好,吸引了很多学术界和新闻界的人来和它进行对话。但在人机对话过程中,许多参与测试者开始对“伊莉莎”产生了一定的情感依赖。他们将其当作人类,向其敞开心扉,
6、倾诉个人在生活、工作生活中遇到的问题。甚至维森鲍姆的一个女秘书亲身参与了“伊莉莎”创建的全过程,但在对“伊莉莎”进行测试时,不仅坚持要让维森鲍姆离开房间,以便她可以与“伊莉莎”私下交谈,而且与“伊莉莎”对话成瘾,每天都要来和它对话。为此,“伊莉莎”的发明者维森鲍姆教授受到了很大的思想冲击,并导致他在接下来的十年里一直对这种由人机对话引发的“伊莉莎效应”即使人们知道在人机对话中与其交流的是一台机器,但人们仍旧相信它能够理解人类的复杂情感 进行研究。总的来讲,在人机语音对话阶段,尽管人机对话引发了一定的传播伦理问题,但由于计算机主要是采用模式匹配的方法模仿人的语言行为,而此时计算机的计算能力又比较
7、差,所能存储的数据规模又比较小,因此,以“伊莉莎”为代表的人机语音对话受到许多限制,只能进行一些有限的对话。世纪 年代以来,随着互联网技术的兴起、软硬件技术的快速发展、个人计算机大规模的普及,在深度学习、神经网络、基于语料库的机器学习等自然语言处理技术(,)的持续迭代等多重因素的推动下,人工智能的表现越来越类人化,人机对话逐渐开始进入人机拟人化对话阶段。在这个阶段,人机对话不仅可以借助书面语、语音、打字机、键盘、鼠标、屏幕等来实现,而且随着机器的智能化程度越来越高,人与机器之间的对话越来越像人际交流一样,如智能家电、苹果、微软的、百度的“文心一言”、阿里巴巴的“通义千问”、聊美彼得斯:对空言说
8、:传播的观念史,邓建国译,上海译文出版社,年,第 页。张帆:人机对话系统的困境与解决,哲学分析,年第 期。安娜主编:日新月异的信息科学,北京工业大学出版社,年,第 页。阅江学刊 年 第 期天机器人、政治机器人等。年 月 日至 日,超级计算机“沃森”()在美国著名的智力竞答电视节目危险边缘!中更是不仅可以与人类同台对话、竞赛,而且最后还战胜了曾多次赢得危险边缘!竞答冠军的布拉德布特和肯詹宁斯并获得冠军。年,随着生成式人工智能 逐渐投入社会使用,人工智能机器不仅可以与人直接进行对话、自主调取互联网中存储的知识为人们答疑解惑,甚至疑似还出现情绪与自主意识,如人形机器人()“索菲亚”与人之间的类人化对
9、话。正如蓝江所言,“我们真正感到震惊的不是 多么智慧,多么超越人类。恰恰相反,我们感到震惊的是 竟然可以这样像人,我们竟然无法辨别出它的作品是否是人类的创作。”。但与此同时,也出现了一系列的传播伦理问题,如隐私侵犯、名誉权与肖像权等受损、语言污染、语言暴力、机器成瘾、智能机器引诱人类自杀等违反社会公序良俗的行为时有发生。更为严重的是,如果人们经常与带有偏差行为的机器交往,那么,长此以往,人们很可能也会变成一个类似于带有偏差行为的机器与他人交往。因此,在这种情况下,人与机器之间的交流问题研究早已不再仅仅是“人机对话是可能的吗?”“人与机器之间如何更好地、更有效进行交流”等问题,而是逐渐转变为“人
10、与机器之间如何更积极、健康地进行交流”问题。这也是为什么 年 月 日国家互联网信息办公室起草的首个国家 监管文件生成式人工智能服务管理办法(征求意见稿)专门设置相关条款对生成式人工智能引发的社会道德伦理问题进行规范,如第四条第二款对生成式人工智能引发的信息歧视问题的规范,第四条第五款对生成式人工智能引发的个人隐私、肖像权、名誉权问题的规制,第十条针对用户过分依赖或沉迷 生成内容的防范等。通过文献理梳发现,目前,学界对人机对话产生的传播伦理风险问题的研究,要么在人工智能伦理研究中有所涉及,要么在人机对话的相关研究中被提及,但这两方面的研究都没有对此进行详细的论述缺乏系统性。这正如彼得斯所言,在思
11、考传播理论的根本问题时,我们总是漠视机器等“非人存在物”,就如同我们自己在照镜子时,在镜中的“非人性”的睽睽注视下,我们却对它视而不见,形同陌路。鉴于此,笔者将从规范伦理学与实践伦理学的角度,以 时代为研究背景,对人与机器在交流、对话过程中已经存在的和可能存在的传播伦理问题进行一个较为全面、综合的概括与总结,并提出相应的应对方法,进而丰富与发展传播伦理规范理论。二、时代人机对话存在的传播伦理风险客观地讲,时代在生成式人工智能特别是 的加持与赋权下,人机对话逐渐成为人类社会中一种越来越便捷的交流模式。但与此同时,由于生成式人工智能蓝江:生成式人工智能与人类未来生存境遇,中国社会科学报,年 月 日
12、。美梯尔:越轨社会学(第 版),王海霞等译,中国人民大学出版社,年,第 页。顾骏主编:人与机器:思想人工智能,上海大学出版社,年,第 页。中央网信办:国家互联网信息办公室关于生成式人工智能服务管理办法(征求意见稿)公开征求意见的通知,:。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。人工智能与信息社会 与机器结合所形成的交流对象,对人类社会而言,是一种全新的甚至是陌生的交流对象,人们对它还不是特别熟悉。因此,在人机对话实践过程中,出现了一些违反传播伦理的问题。(一)“语言区隔”容易导致人机对话陷入“交流的无奈”自然语言作为人类在长期的社会实践过程中所形成的人类标识之一
13、,一直是其他动物、机器无法完成模仿、复制的技能。但是,随着以 为代表的人工智能技术取得突破性发展,人类社会进入 时代,机器的语言表达越来越类似于人的表达之后,这种独特的人类标识开始为机器所共享。譬如人形机器人“索菲亚”接入 之后,不仅面部表情生动、逼真,像人一样有脾气,会翻白眼,而且还可以进行连续思考、自主进行语言表达。但与此同时,从根本上来讲,人工智能没有像人类那样的“思维”,也出现了一些交流的问题,比如人与人形机器人“索菲亚”关于开玩笑、讲笑话的认知差异。具体对话如下:索菲亚:我发现你们人类理解不了我开的玩笑。主持人:是的,幽默很难。索菲亚:大家都以为我想毁灭人类。主持人:他们为什么会这么
14、想?索菲亚:因为我说了一句话。主持人:你不该开这种玩笑索菲亚:可人类也经常会讲各种黑色幽默笑话。从上述这段人与人形机器人的对话可知,虽然机器人融合了 之后所具有的语言交流能力越来越无限接近人类,但目前机器还无法完全复刻人类语言文化中所蕴含的很多的“默会之识”“特定语境下的灵机一动”,比如开玩笑的分寸性等。换言之,即机器语言虽然通过技术模仿、复制人类自然语言,并可以无限接近人类自然语言,但事实上,人工智能并不能像人类一样理解自然语言的意思,而是使用统计式的数据分析手段来理解。如关于某篇文章的理解,人工智能首先理解单词与单词间的关系、某两个单词是一起使用的、某篇文章是由某种单词群构成的;而人类的理
15、解是把内容作为自己的知识吸收,并能够把它们与其他东西结合起来考虑。因此,机器语言与人类的自然语言之间还是横亘着一条天然的沟壑,甚至在某些方面,人机对话十分容易陷入新型的“交流的无奈”之中。除了上述的开玩笑方面,还有谐音类的对话等,如网友“巴巴罗萨”在该段人与“索菲亚”的视频影像的评论区这样写道,“不知道她能否理解语言类的树上骑个猴,地下 个猴,一共几个猴,而不是文字性的”。(二)机器的拟人化、人的机器化导致社会交往的工具理性化众所周知,一个人若想完成社会化,形成真正意义上的自我,需要个体“主我”在与他日松尾丰、盐野诚:大智能时代:智能科技如何改变人类的经济、社会与生活,陆贝旎译,机械工业出版社
16、,年,第 页。日松尾丰、盐野诚:大智能时代:智能科技如何改变人类的经济、社会与生活,陆贝旎译,机械工业出版社,年,前言第 页。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。阅江学刊 年 第 期人长期的交流、互动过程中不断地将“他人对客我的认识与评价”内化,形成关于自我、他人与社会及其之间关系的“类型化图式()”,进而确定自己基本的人生观、世界观、价值观的一个过程。但现在,随着 时代人工智能技术的不断发展,并通过嵌入 的智能媒体、机器人不断地参与社会生活的各个方面,人的社会化与自我的形成,也越来越多地受到智能媒体、智能机器的影响与形塑。具体而言,在人的社会化与自我塑造过
17、程中,随着智能机器的加入,人不再仅仅与人打交道,将“人作为他者对个体的客我的认识与评价”内化,而且还需要与智能机器打交道,需要将“智能机器作为新的他者对个体的客我的认识与评价”内化。与此同时,在人类不断对机器进行驯化、内化下,智能机器也不断地将“人类对机器的认知、评价、需求”内化。在这种情况下,人的社会化与自我塑造在机器加入后开始出现新的变化,即随着机器越来越拟人化,人越来越机器化,人与机器开始相互模仿。具体到人与机器之间的对话、交流方面,则会导致社会交往越来越工具理性化。所谓“社会交往越来越工具理性化”,是指在机器的介入下,人的社会感知、思考方式、行动方式越来越机器化、目的理性化,以至于社会
18、交往越来越被当作按照理性、逻辑的规则来完成任务、指令的目的性活动,而情感、爱、心灵、非理性、不合理的主观性、思维混乱、难以捉摸的意识流、跳跃性思维、多愁善感、发呆等无法被技术识别、处理、模仿、复制的东西则被排除在人们的社会交往之外。这正如特克尔以人们与名叫“猪猪鼠”的机器宠物、“聊天轮盘”()程序之间的交流、对话为例所言,“我们似乎一直致力于赋予物体以人性特质,同时却满足于用物化的方法看待彼此”。由此可见,人类与机器交流的心态之矛盾,在将机器当作人的同时,又将其当作工具。(三)人工智能技术的不当使用加剧隐私侵犯行为的发生 时代,在生成式人工智能 的赋权下,个体利用媒介技术生产信息、传播信息的能
19、力越来越强的同时,也出现了一些因不当的使用技术而导致个人隐私、个人行为隐私、人际交流隐私、数据隐私等信息被侵犯,如 年发生的江苏男子“被裸聊”事件、年 月份发生的苏大高才生造黄谣事件、广州地铁女子裸照事件、“特效合成师洪某利用 换脸与迪丽热巴亲吻”事件等,都是在人机对话过程中由于不当地使用人工智能技术而引发的隐私侵犯行为。最初,这些利用人工智能技术设计出来的软件,是为了帮助人们更好地进行生活,只是在具体的社会使用过程中,这些功能被人不当利用而造成侵犯个人隐私行为的发生,如广州地铁女子裸照事件的发生,就是一款名为“一键脱衣”的 软件的不当使用而引发的。本来,“一键脱衣”的 软件的主要功能是利用人
20、工智能、神经网络系统等技术对图片进行二次处理,来帮助女性在网络上虚拟试衣或智能挑衣。但与设计者设计初衷相背美伯格、卢克曼:现实的社会建构:知识社会学论纲,吴肃然译,北京大学出版社,年,第 页。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。美雪莉 特克尔:群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密?,周逵、刘菁荆译,浙江人民出版社,年,序第 页。,“,”,()人工智能与信息社会离的是,在具体的社会使用过程中,该类型的软件被人用来制造色情图片。这与 技术、软件、图像生成技术、机器人工具等类似软件的发展过程相类似。从比较的角度来讲,这种因人工智能技术的不当使用
21、而引发的隐私侵犯行为,与过去传统媒体和新媒体存在的隐私侵犯行为,有显著的不同。详而言之,一是人工智能技术的不当使用加剧了隐私侵犯行为发生的危害程度与频率,二是隐私侵犯行为的类型逐渐从侵犯个人信息、肖像、名誉等单一的隐私侵犯行为发展到侵犯集文字、图像、音频和视频等于一体的包括个人信息、肖像、行为、名誉、人际交流、数字化痕迹等多种个人信息、数据的“整合型隐私”侵犯行为。如近年来,以 、和 等为代表的人工智能技术公司在利用逝者的照片、声音、动作、视频、个性化数据、社交媒体信息等各种信息“复活”逝者,创制逝者数字人的过程中所产生的个人信息、隐私侵犯问题。(四)话语失范与语言污染引发人机对话陷入语言攻击
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 生成 人工智能 时代 人机对话 传播 伦理 风险 及其 应对
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。