基于知识的智能问答技术.doc
《基于知识的智能问答技术.doc》由会员分享,可在线阅读,更多相关《基于知识的智能问答技术.doc(9页珍藏版)》请在咨信网上搜索。
1、题目:基于知识的智能问答技术(PDF)作者:许坤,冯岩松(北京大学)作者简介:许坤,北京大学计算机科学技术研究所博士生,研究方向为基于知识库的智能问答技术,已连续三年在面向结构化知识库的知识问答评测QALD-4, 5, 6中获得第一名。冯岩松,北京大学计算机科学与技术研究所讲师。2011年毕业于英国爱丁堡大学,获得信息科学博士学位。主要研究方向包括自然语言处理、信息抽取、智能问答以及机器学习在自然语言处理中的应用;研究小组已连续三年在面向结构化知识库的知识问答评测QALD中获得第一名;相关工作已发表在TPAMI、ACL、EMNLP等主流期刊与会议上。作为项目负责人或课题骨干已承担多项国家自然科
2、学基金及科技部863计划项目。分别在 2014 和 2015 年获得 IBM Faculty Award。引言近年来,信息抽取技术的快速发展使得快速构建大规模结构化、半结构化知识库成为可能。一大批结构化知识库如雨后春笋般涌现出来,如Google Knolwedge Graph (Freebase)、Yago,DBpedia、微软ProBase、搜狗知立方及百度等企业内部的知识图谱等。同时,这些大规模知识库也被应用于关联检索、个性化推荐、知识问答等任务中。相比于传统基于文本检索的问答系统,利用知识库回答自然语言问题可以为用户提供更精确、简洁的答案,因此一直受到学术界和工业界的广泛关注。目前基于知
3、识库的问答技术可以大致分为两类。第一类基于语义解析的方法。这类方法通过学习相关语法将自然语言转问题转换成可以用来描述语义的形式化语言,如逻辑表达式等。构建这样的语义解析器需要大量的标注数据,例如,自然语言问题及其对应的语义描述形式。然而,针对Freebase这样大规模的结构化知识库,在实际中很难收集到足够多的高质量训练数据。另外,语义描述形式与知识库的结构之间的不匹配也是这类方法普遍遇到的一个问题,例如,在Freebase中并没有“爸爸”或“妈妈”这样的谓词关系,只有“父母”,因此,如果想表示 “A 是 B的母亲”这样的关系,则需明确表示为“” 并且 “”。 另一类知识问答技术是传统的基于信息
4、检索的方法。这类方法不会将自然语言问题完全转换成形式化的语义描述,而是首先利用实体链接技术从知识库中收集候选答案集合,然后构建排序模型对候选答案进行排序。因为不需要完整地解析自然语言问题的语义结构,因此,这类方法构造训练数据的过程相对简单,只需收集问题答案对即可。实验表明,基于检索的方法对语义简单的自然语言问题比较有效,但是难以处理语义结构复杂的问题,尤其是包含多个实体和关系的自然语言问题。例如,对于自然语言问题“What mountain is the highest in North America?”,检索类的方法由于缺乏对highest的正确解析,通常会将所有坐落在北美的山脉返回给用户
5、。事实上,为了得到正确的答案,问答系统还需要根据山脉高度对候选答案进行排序,并选择海拔最高的山脉返回给用户。该过程通常需要人工编写解析规则对答案进行筛选,费时费力。此外,由于自然语言描述的多样性,人们也无法事先穷举所有这样的规则。 然而事实上,Freebase这样的结构化知识库希望存储关于真实世界的知识条目,而像维基百科页面这样的文本百科资源则存储支持这些事实的文本描述。例如,在维基百科页面中,我们可以找到一段与候选答案有关的文本Denali (also known as Mount McKinley, its former official name) is the highest moun
6、tain peak in North America, with a summit elevation of 20,310 feet (6,190 m) above sea level。很明显可以看出,这段文本描述可以帮助我们提升 Denali 或者 Mount McKinley 作为正确答案的置信度,并过滤掉候选集中的错误答案。正是受到这个发现的启发,我们提出同时利用结构化知识库与可信的文本百科资源,如维基百科页面,来回答知识类自然语言问题。基于多种知识资源的问答技术框架图1:针对问题who did shaq first play for的流程图以样例问题 who did shaq firs
7、t play for的处理流程为例,图1展示了融合多种知识资源的问答框架。该问答系统框架主要包含基于结构化知识库Freebase的问题求解和基于非结构化知识资源Wikipedia文本的浅层推理。 基于结构化知识库的问题求解基于结构化知识资源的问题求解部分只需给出候选答案集合即可,因此既可采用基于语义解析的方法,也可以直接采用基于检索的方法来实现。这里我们采用的是基于检索的方案,主要包括实体链接,关系抽取,以及这两部分的联合消解三大部分。1) 实体链接实体链接在知识类问题解析中扮演着十分重要的角色。我们采用词性POS序列来筛选问题中的所有实体候选,以前面的问题为例,我们可以利用POS序列NN识别
8、出实体shaq。对于识别出来的实体候选,我们使用实体链接工具S-MART获取可以潜在链接到Freebase的5个候选实体。具体而言,对给定的实体候选,S-MART首先根据字符串相似度从Freebase中获取一些候选实体,然后利用统计模型根据知识库实体与实体候选之间的共现频率计算出一个得分并排序,最终给出实体链接结果。2) 关系抽取关系抽取用于识别问句中的实体与答案(疑问词)之间的语义关系。我们使用多通道卷积神经网络来确定自然语言问题中实体与答案之间存在的关系。具体地讲,我们使用两个通道,一个通道捕捉句法信息,另一个通道捕捉上下文信息。每个通道的卷积层接受一个长度不固定的输入,但是返回一个固定长
9、度的向量(我们使用最大采样法)。这些固定长度的向量被拼接在一起形成最后softmax分类器的输入,该分类器的输出向量维度等于关系类别的总数,每一维的值等于映射到对应知识库谓词的置信度。3) 实体和关系的联合消歧通常情况下的实体链接与实体关系抽取都是独立预测的,因而不可避免的会存在流水线框架下常见的错误传递现象。因此,我们提出了一种联合优化模型从实体链接和关系抽取的候选结果中选择一个全局最优的“实体-关系”配置。这个挑选全局最优配置的过程本质上可以被视作一个排序问题,即,“合理”的实体-关系配置在知识库中应更常见,应该有更高的得分。我们主要依赖从知识库中抽取的三类特征,即实体特征、关系特征和答案
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 知识 智能 问答 技术
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【精***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【精***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。