美团智能问答技术探索与实践
分享嘉宾:美团 江会星 博士
编辑整理:韩佳
出品平台:DataFunTalk
导读: 本文主要介绍在美团业务中智能问答技术的相关落地与实践。通常问答系统需要提前构建好问答对知识库,这种方式对高频问题能处理的很好,但难以解决开放性问题。在日常生活服务中,如"去哪玩"、“住哪家酒店"等,在行前通常需要对景点、酒店等目的地做详细咨询再决策,智能问答是一种非常友好的方式来帮助用户获取信息。但针对不同的景点、酒店等用户问的问题通常不同,是开放性的,且信息往往是动态分布在商户页面详情、政策、用户评论、社区问答等各类数据中。这需要提供一套智能"问题解决"能力,实时从各类信息中找出准确的信息来回答用户问题,辅助用户决策。本文在简单介绍完智能问答技术框架之后,着重介绍Document QA,Community QA, KBQA三类"问答解决"能力。
01
智能问答技术框架
智能问答通常会涉及三方面问题:****
- 问题推荐:当用户进入智能问答产品门户时,问答系统通常会根据用户信息推荐相关问题来帮助用户明确他的意图,以便很好的为他服务。这里通常涉及问题怎么来 ( 问题生成 ),推荐哪些问题 ( 问题排序 ) 和对话过程中还会问哪些问题,即多轮问题引导,问答系统通常会考虑问题之间的相关性,问题间的顺承关系给出相应的问题引导;
- 问题理解:当用户输入时,判断是不是问问题,是哪个领域/意图,有什么实体槽位,是不是时效性问题等等。如果问题可能属于多个领域,则需要领域路由澄清,如果意图不明确,则需进一步澄清等,如果一个实体名关联多个实体店,例如,七天酒店有很多门店,则需要澄清"你要问的是哪一个门店”;
- 问题解决:给出最终问题的答案,本文将重点介绍,包括基于阅读理解的问答 ( Document QA )、社区问答 ( Community QA ) 以及基于图谱的问答 ( KBQA )。另外针对有第三方API的问题,我们也会以TaskBot方式调用API来解决,本次主要介绍"自供给"形式的问题解决方案,TaskBot暂不介绍。
智能问答技术框架如下图所示:
02
Document QA
商户简介、攻略和UGC评论等非结构化文档中包含大量优质信息,从非结构化文档中提取答案,即文档问答 ( Document QA )。近年来基于深度神经网络的机器阅读理解 ( Machine Reading Comprehension,MRC ) 技术得到了快速的发展,逐渐成为问答和对话系统中的关键技术。MRC模型以问题和文档为输入,通过阅读文档内容预测问题的答案。根据需要预测的答案形式不同,阅读理解任务可以分为填空式 ( Cloze-style )、多项选择式 ( Multi-choice )、片段提取式 ( Span-extraction ) 和自由文本 ( Free-form )。在实际问答系统中最常使用的是片段提取式阅读理解 ( MRC ),该任务需要从文档中提取连续的一段文字作为答案。最具影响力的片段提取式MRC公开数据集有SQuAD和MSMARCO等,这些数据集的出现促进了MRC模型的发展。在模型方面,深度神经网络结构被较早的应用到了机器阅读理解任务中,并采用基于边界预测(boundary-based prediction)方式解决片段提取式阅读理解任务。这些模型采用多层循环神经网络+注意力机制的结构获得问题和文档中每个词的上下文向量表示,在输出层预测答案片段的起始位置和终止位置。近年来预训练语言模型如BERT,RoBERTa和XLNet等在众多NLP任务上取得突破性进展,尤其是在阅读理解任务上。这些工作在编码阶段采用Transformer结构获得问题和文档向量表示,在输出层同样采用边界预测方式预测答案在文档中的位置。目前在单文档阅读理解任务SQuAD上,深度神经网络模型的预测EM/F1指标已经超越了人类标注者的水平,说明了模型在答案预测上的有效性。
Document QA借助机器阅读理解 ( MRC ) 技术,从非结构化文档中抽取片段回答用户问题。在问答场景中,当用户输入问题后,问答系统首先采用信息检索方式从商户详情或诸多UGC评论中查找到相关文档,再利用MRC模型从文档中摘取能够确切回答问题的一段文本。美团和大众点评上商户的简介攻略、UGC评论均有专业内容运营团队,可以产生内容优质、高可信度的答案,应用机器阅读理解技术直接从文档中提取答案,不需要人工维护意图类目,可以在不同业务领域灵活迁移,人工维护成本小。
图中左边是颐和园的评论信息,右边是全季酒店的详细信息,这些信息构成了机器阅读理解中的文档要素。当询问"颐和园里面有午饭吗?"、“未成年人可以独自入住吗?“时,如果需要用户直接从文档中自我阅读的话,耗时费力。最好的方式是直接给答案,而这些答案往往隐藏在大段的文本里面。比如"颐和园里面有午饭吗?",在评论里面描述有"中午饭还是建议自带,要是买的话有汉堡肉夹馍,还有牛肉面饭之类的”;“未成年人可以独自入住吗?“政策里面描述有"不接受18岁以下客人,在无监督人陪同的情况下入住。”
1. 机器阅读理解模型
深度神经网络结构较早的应用到机器阅读理解任务,代表性的包括Bi-DAF、R-NET、QANet、BERT等。这些模型均采用多层循环神经网络或Transformer加注意力机制等方式来解决问题和文档的上下文向量表示,最后通过边界预测来获取答案片段的起始和结束位置。我们选择表现最好的BERT模型进行相应任务的建模,将问题和文档作为输入,预测在文档中的起始位置和结束位置,将最大可能的起始位置和结束位置之间的片段抽取出来,作为答案。
文档问答系统的答案预测流程包含三个步骤:
(1) 文档检索与选择 ( Retriever ):根据Query关键字检索景点等商户下的相关详情和UGC评论,根据相关性排序,筛选出相关的评论用于提取候选答案;
(2) 候选答案提取 ( Reader ):利用MRC模型在每个相关评论上提取一段文字作为候选答案,同时判断当前评论是否有答案,预测有答案和无答案的概率;
(3) 答案排序 ( Ranker ):根据候选答案的预测得分排序。这样能够同时处理多篇相关评论,比较并选择最优答案,同时根据无答案概率和阈值判断是否拒绝回答,避免无答案时错误回答。
Document QA问答系统架构如下图所示:
- 文档检索和排序:上图①表示文档检索的过程,首先根据用户询问的商户名定位到具体商户,通过关键字或向量召回该商户下与Query相关评论或详情信息的TopN篇文档。
- 答案片段预测:在答案提取任务中,将每条详情或评论作为一个文档 ( Document ),把用户Query和文档拼接起来,中间加入分割符号[SEP],并在Query前加入特殊分类符号[CLS];把拼接后的序列依次通过②中的模型,在每条评论上提取一段文字作为候选答案,并预测有答案概率 ( HA Score ) 和无答案概率 ( NA Score )。长度分别为N和M的Query和Document,每一个token经过BERT Encoder,分别得到隐层向量表示 T_i (i=1,2,…,N) 和 T_j’ (j=1,2,…,M) 。将Document的向量表示经过全连接层和Softmax计算后得到每个Token作为答案起始和终止位置的概率Pistart和Pjend,然后找到P_i^{start}*P_j^{end} (i,j=1,2,…,M,i<j) 最大的组合,将位置i和j之间文字作为候选答案,P_i^{start}*P_j^{end}作为有答案概率 ( HA Score )。
- 答案排序:答案重排序部分如③所示,根据前一步的候选答案得分 ( HA Score ) 排序,选择最相关的一个或多个答案输出。
- 无答案判断:在实际使用中还会面临召回文档无答案问题,需要在答案提取的同时加入无答案判断任务。我们的具体做法是联合训练,将BERT模型的[CLS]位置的向量表示C经过额外的全连接层和二分类Softmax,得到无答案概率 ( NA Score ),根据无答案概率 ( NA Score ) 和人为设定的阈值判断是否需要拒绝回答。
Document QA在实际落地过程中也发现了一些问题。通常情况下,MRC模型抽取的答案偏短,回答信息不充分,如问"停车方便吗”,答案为"停车方便’,从MRC任务看,这样的回答也很不错,但该答案并没有回答为什么方便,信息不充分,更期望的答案是"停车方便,有免费停车场”。我们通过在构造模型训练数据时选择更完整的句子作为标准答案,在预测时尽量选择完整的句子作为回答等方式来优化解决;另一个问题是时效性问题,比如"现在需要预约吗?“明确地问当前的情况,如果用经典的阅读理解获取的答案可能是"可以预约"和"不可以预约”。通常情况下,这种信息在我们UGC是大量存在的,不过有一些信息,非常好的答案可能是一个时效性很差的问题,或是很久以前的评论,这种对用户来说帮助不大。所以我们对时效性进行了相应处理,根据时间的关键词,包括现在、今天,也包括一些事件如樱花、桃花等,它们都有一些特定时间点,这些都作为时间词来处理。还有很多场景,比如景点、酒店等领域,通过梳理也能发现有一些意图跟时效性相关,比如说门票、营业状态等,我们对它们也做相应的时效性处理;再就是"是否类"问题缺少直接回答,MRC模型用于答案片段抽取,适合回答事实类的描述性问题。但是真实存在大量的"是不是、是否、能否"等是否类问题,如"酒店提供饮食吗?",原来的回答是"早上10元一位管吃饱",但是回答的不够直接,我们希望同时也能更直接地先回答是否。故此我们采用多任务的学习方式,在MRC模型上加入了Yes/No的分类任务,来判断答案的观点是肯定还是否定。改进后的答案为"是的。早上10元一位管吃饱"。
最终,我们的MRC模型架构如下图所示:
2. 多文档机器阅读理解
另外,针对当前应用从多个文档中查找一个与问题最相关的答案,促使我们尝试多文档MRC模型,即直接对多文档进行阅读理解的建模,从而选择最优的一个作为最终答案。在上图左边结构中,我们将多篇文档作为输入,每篇文档都预测它的起始和结束位置,然后通过文档排序任务将多文档的相关性进行加权,对每个片段的得分进行排序。右边表格是我们的模型在公开数据集DuReader上的验证结果,通过比较单文档模型、多文档联合训练以及在多文档联合训练基础上增加排序任务加权,Rouge-L和Bleu-4值都有大幅提升,当前我们的模型在DuReader Leaderboard上排名第一。
03
Community QA
社区问答 ( Community Question Answering,CQA ) 和常见问题问答 ( Frequently Asked Questions,FAQ ) 是基于问答对的问答系统的两种方式。FAQ通常由人工事先维护好问答知识库,当用户问问题时,根据相似度匹配到最相关的问题,并给出对应的答案。FAQ在限定领域内回答质量较好,但是问答知识库整理成本高。随着社交媒体的发展,CQA可以通过社交平台获得大量用户衍生的问题答案对,为基于问答对的问答系统提供了稳定可靠的问答数据。在美团和大众点评APP中,商户详细页中有一个"问大家"模块,其问题和答案都是由用户生成,含有关于当前商户许多用户关心的关键信息,比如景点相关的"是否允许携带宠物"等客观问题,以及"停车是否方便"等主观问题,很大程度上能回答用户对于景点或其他商户的开放域问题。
在问大家数据中,每个商户下通常存在多个问题,且每个问题下有多个用户回答的答案。如图所示,对于八达岭长城,有2000多个大家问的问题,“市里面去长城怎么去"问题下有10条不同用户回答的答案。由于社区问答中知识分享并不存在义务性,有价值的问答中往往混杂有大量无意义的信息,甚至语义相左的答案。如关于新荟城"这个商场里有星巴克吗?“答案中既有肯定的回答,也包含"好像没有"等。用户回答的质量参差不齐,如何挑选出好的答案,就非常重要。
CQA问答系统处理框架如上图所示,我们将问题处理分为两个阶段,首先离线阶段通过低质量过滤、答案质量排序等维护一个相对质量较好的问题-答案库,在线阶段,从知识库中检索得到答案并回答用户。
1. 答案质量过滤
由于问大家数据中用户回复答案质量的参差不齐,需要过滤掉与问题无关的低质量答案,保留相关性强的答案。我们采用了如下方法保证答案质量:
**低质量答案过滤:**问大家数据中存在一些无意义、广告、不礼貌等低质量答案,严重影响答案质量和用户体验。我们通过对问答数据分析并总结出一些广告、不礼貌的敏感词和Pattern,通过Pattern匹配的方式过滤;总结一些表示无意义信息的关键词,更新到停用词表中,通过计算答案中停用词占比方式对无意义答案进行过滤。
答案质量排序: 除了对低质量问题过滤外,我们期望对有多个答案的情况进行相应的排序。将质量更好的答案排在前面。基于Pairwise方式的排序模型其训练目标不仅要将候选答案分类到正确的类别,更关注于将Top K的结果排在前面,这与我们的业务目标一致,因此我们使用基于Pairwise方式的RoBERTa模型对答案质量进行排序。在训练阶段,给定一个问题Q和两个候选答案A1和A2,组成三元组 (Q,A1,A2) 输入到模型中,其中第一个候选答案A1比第二个候选答案A2质量要好。在模型训练时,这个三元组被拆分为两个问答对 (Q,A1) 和 (Q,A2)。每个问答对 (Q,A) 通过[SEP]标识符分割,并在问题前加入[CLS],最终以[CLS] Q [SEP] A [SEP]的形式输入到Bert模型中。然后得到[CLS]的输出作为问答对的表示,经过一个全连接层和Softmax得到问答相似度值。我们将两个候选答案的交叉熵损失和合页损失作为最终的损失函数。在预测阶段,将问答对输入到模型中得到文本相似度值,根据这个值对同一问题下的不同答案排序,从而选出Top答案。
2. 在线问题匹配
在线阶段解决的是将用户的问题与知识库知识进行匹配的问题。同时考虑文本相关性和语义相关性,将问题匹配分为召回和精排两步:
- 第一步检索召回候选问题并进行粗排;
- 第二步根据语义相似度对候选答案进行精排,返回Top-K问题和对应答案。
在我们的任务中涉及到景点、酒店、商场等多场景,多领域知识适配任务突出。模型框架首先建模成Multi-Task架构,所有领域数据训练出一个共享参数,解决新领域与冷启动的问题,同时不同的领域,也会得到各自领域的参数,提升各自领域效果。除此之外,也发现只计算用户的Query和问答对里问题的相似度,是不太够的。答案往往也能帮助我们更好的去理解问题。上图中"还营业吗现在"的问题,语义上"正常营业吗?“比"关门了吗?“更相关,但从答案"肺炎期间闭园不营业"和"没去过"中很容易辨识出第一条答案更相关。因此建模时我们将答案也考虑进去,采用Multi-Field框架。最终我们的模型为Multi-Field Multi-Task RoBERTa模型。
04
KBQA
在我们商户页面上还存在营业时间、地址、套餐价格等结构化信息,商场商户下还存在各商铺楼层分布、主营商品等信息,这类结构化信息源我们采用基于知识图谱的问答方式来回答用户问题。KBQA是一种基于知识图谱的问答技术,其主要任务是将自然语言问题 ( NLQ ) 通过不同方法映射到结构化的查询,并在知识图谱中获取答案。相比非结构化文本问答方法利用图谱丰富的语义关联信息,能够深入理解用户问题、解决更多复杂推理类问题。
主流的KBQA解决方案包括基于查询图方法 ( Semantic Parser )、基于搜索排序方法 ( Information Retrieval )。查询图方案核心思路就是将自然语言问题经过一些语义分析方式转化成中间的语义表示 ( Logical Forms ),然后再将其转化为可以在 KG 中执行的描述性语言 ( 如 SPARQL 语言 ) 在图谱中查询,这种方式优势就是可解释强,符合知识图谱的显示推理过程。搜索排序方案首先会确定用户Query中的实体提及词 ( Entity Mention ),然后链接到 KG 中的主题实体 ( Topic Entity ),并将与Topic Entity相关的子图 ( Subgraph ) 提取出来作为候选答案集合,通过对Query以及Subgraph进行向量表示并映射到同一向量空间,通过两者相似度排序得到答案。这类方法更偏向于端到端的解决问题,但在扩展性和可解释性上不如查询图方案。在美团场景里我们采用以Semantic Parser方法为主的解决方案。
知识图谱问答核心技术共分为四层,数据层、知识挖掘和知识图谱层为知识图谱构建常见架构,知识图谱问答的关注重点为上层查询理解、图查询及图排序部分。
在对话理解阶段,我们已将用户输入的Query理解成领域、意图和槽位的形式,比如"颐和园学生门票多少钱"理解为门票意图,“颐和园"是travel_landmark,“学生门票"是ticket_type。在KBQA的查询理解阶段我们只需要解决好关系/属性检测和消歧、实体约束理解。
对于图谱问答来说,如何检测出图中关系?一种是定义关系Pattern,建立Pattern和关系的映射关系;另一种是将关系检测定义为分类任务,或者是匹配任务,每种关系提前维护好可能全的不同说法,通过计算用户Query与关系说法的相似度匹配来确定关系。它的一个好处就是对冷启动非常友好,而分类通常需要构建大量的训练数据集,冷启动不友好。关系检测我们采用了Pattern和说法匹配相结合的方式。
约束理解我们建模为依存理解问题,相比通用的依存理解,依据我们的业务场景将关系数量缩减到只有六类,主实体、并列关系、谓词信息、主实体约束、谓词约束和无意义词。模型选择上采用比较经典的Deep Biaffine模型,在这里通过在输入层加入NER的特征,如图右上角所示,指标上有较大的提升。
图查询排序方面,首先引入标签节点、CVT结构,将约束关联到节点上。比如"故宫成人票多少钱”,它的意图是问故宫价格,如图左下角所示,成人票是价格的一个约束,建模时把约束"成人"建在"价格"的节点上。在线查询时,通过一跳就能查询到价格节点,我们要做的事情就是约束匹配,找到一条最优的路径;再就是引入排序模型,排序解决的就是选择含约束条件的最优路径。这样常见的约束可以比较快的整理出来,不常见的约束也可以作为约束节点加进去,因排序模型解决了相似计算问题,对于未见过的约束类型也同样生效。
05
多QA答案融合排序
上述问答模块在回答范围上各有侧重,但对于同一个用户问题,不同的问答模块都有可能返回候选答案,如下表格中例子所示,有多个候选答案,如何做出选择。
在答案选择时主要考虑以下三个因素:
- 答案与问题的语义相关性:我们希望选择与问题在语义上最相关的答案;
- 答案信息完整性:我们希望答案能够完整地回答问题,而不仅仅回答问题的一个方面 ( 如问题"停车是否方便”,回答"停车方便,有免费停车场"比仅回答"停车方便"更好 );
- 答案的真实性:多个答案在观点上可能存在相互矛盾,我们需要选择最接近实际情况的答案。
在初始阶段我们采用基于规则的方式,主要考虑答案的相关性和真实性。在相关性方面考虑答案的类型 ( KBQA、CQA和DocQA ) 和置信度,根据答案置信度的类型排序。每种问答方案根据答案置信度将答案分为两级,级别越高优先级越高,同一级别的优先级为KBQA > CQA > DocQA;在答案真实性方面主要考虑答案时间,时间越久的答案真实性越差,超过一定时间 ( 如2年 ) 的答案会被降低在排序中的级别;对于时效类问题,如“景区最近花开了吗”,超过3个月的答案将不会被采用。这里的问题是不同类型的答案置信度分数往往是不能相互比较的,总会有一些Bad Case存在。
再就是基于排序模型的方式:
- 利用问题和答案的语义相似度匹配的方式,建模答案与问题语义相关性,为了提高排序模型效果,我们在排序时利用到了问题所对应的NLU意图信息,将模型的输入从"问题+答案"形式转化为"问题+意图+答案"形式,充分利用意图信息,提高相关性计算准确率;
- 假设问题的正确答案往往会出现在多篇文章中,且有共同点,将基于问答相似度的答案排序模型与多答案交叉推理模型进行联合训练。具体地,我们将上述排序模型得到的[CLS]向量 ( 或其他层向量 ) 作为答案的语义表示,然后计算每个候选答案与剩余候选答案之间的Attention来整合他们之间的信息,通过门控机制将BERT模型输出的相关性向量表示与交叉验证得到的向量表示结合,对答案进行排序;
- 在答案完整性方面,考虑答案本身的一些统计特征:答案相对长度、信息熵,并将其融合到融合排序模型中。
06
落地应用示例
1. 问答助手
在问景点、问酒店、问商场等生活服务场景中,问答助手可以回答用户如"去哪玩”、“住哪家酒店"等相关问题,辅助用户行前决策。
2. 问答搜索
搜索仍然是当前主要获取信息的手段,问答搜索解
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E7%BE%8E%E5%9B%A2%E6%99%BA%E8%83%BD%E9%97%AE%E7%AD%94%E6%8A%80%E6%9C%AF%E6%8E%A2%E7%B4%A2%E4%B8%8E%E5%AE%9E%E8%B7%B5/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com