丁香园搜索中的扩展技术二
丁香园大数据NLP
一、前言
这一期我们继续来聊 Query扩展 的问题,在上一期我们梳理了目前Query扩展技术可以大致分为 相关性建模 和 翻译模型建模 两种思路。
(传送门:搜索中的Query扩展技术)
在介绍现有Paper工作的同时,结合我们自身场景,如果对文档能够构建概述主旨的concept短语。那么利用文档中的entity与concept就可以使用贝叶斯一众的概率模型构建一个相关性网络。随后在Query端,完成实体链接,获取其中的entity,最后利用相关性模型就可以实现Query扩展的功能。
在此基础上,本文将讨论如何进一步改进扩展效果,以及目前在该领域都有哪些工作思路可以借鉴。
二、相关模型 or 生成模型?
看到上图,细心的同学一定发现了,相关性模型的基础是Query中的 term,或者如我们使用的 entity。如果Query较短,比如 仅包含一个单一实体 时,这类方法是比较适合的。但是当Query较长,包含复杂语义时,再使用相关性模型做Query扩展可能会造成语义偏差过大的情况:
所以,我们的结论是,可以根据Query的长度来选择扩展的策略。当Query较短时,仅包含单一实体时,用户并没有表达出明确的搜索意图,除了满足字面匹配的准确性,Query扩展是为了 补充近似于“推荐”的功能;而对于长Query的情况,文本中不仅出现单个实体词,也会存在多个实体,并相互作为限制词、定语,或者描述实体词的属性等。总的来说,Query越长,用户的意图越聚焦,希望获取的内容越具体,这种情况下,Query扩展是为了实现 在准确捕捉语义后,扩展出相同语义的不同表述。
三、捕捉复杂语义
所以,当Query存在复杂语义时,具体需要解决哪些问题呢?我们总结了以下 三个方面:
a. Query中包含多于一个的实体词,或包含除实体词以外的文本。这种情况通常表达的是对某个实体附加了限定条件(如:HP的治疗方案),或者在表达与多个实体相关的事件(如:上海 疫情)。这类Query包含了某个完整的语义,在处理时不能割裂成多个词,而是想办法encode整个Query,比如各种embedding的方法;
b. 用户对某个事物的表述是多种多样的,并不是所有Query的表述都是精确的,某些情况下由于分词的原因或者BM25计算的原因,不标准的表述可能无法搜索到期望的内容。此时Query扩展能够补充的,是在忠实执行原文本的检索后,也提供一个标准表述下检索结果。(比如:胃溃疡的治疗文件 –> 胃溃疡的诊疗指南);
c. 某些时候,用户对想要搜索的内容有个大致的概念,但是可能一时想不起具体的名字,搜索Query会以围绕目标展开,由多个相关的Query组成一个session(比如:冰与火之歌 -> 马王 -> 海王主演 -> 杰森莫玛)。这类问题目前也有不少工作研究了如何通过Query Session来捕捉到复杂语义;
四、Query扩展思路
在任务形态上,常见有两种类型,一种是首先获得一批Candidates,模型负责对Query与Candidate的pair打分,最高分者为目标Query或扩展的Term;另一种是由模型直接生成目标Query或Term。
查阅已有工作,与我们在此讨论相关的存在 Query Expansion 和 Query Suggestion 两个子领域,前者会更偏重在检索时,使用扩展出的Query来扩充检索内容;后者更偏重Query的reform,比如在搜索引擎使用时的Query补全这类功能。而对于如何对query做encode的部分,许多技术思路是类似的,本文就不再深究两个子领域的细微差异。
1.编码完整Query
想要对整个Query做编码,很自然就会想到使用embedding的方式。具体编码的方式就很多了,比如用Word2Vec叠加、LSTM或者Transformer都可以。
《Deep Neural Networks for Query Expansion using Word Embedding》
比如在本工作中展示了一个比较基础的网络结构,Query词使用word embedding表示,序列模型编码整句话,最后使用全连接作为原始Query与Candidate的交互层。
《Click Feedback-Aware Query Recommendation Using Adversarial Examples》
那么,后续的工作在encoder上就会有不同的玩儿法,比如在序列模型上加attention,在输入加入adversarial sample (虽然文章作者使用对抗学习作为标题,但是感觉并不足以作为工作的亮点)
另外在结构上的变化是也可以对搜索Query、点击Query和 Candidate Query的向量做各种求和、内积、拼接等等。
《Using BERT and BART for Query Suggestion》
除了在encoder的结果上做调整,另一个思路是用预训练模型:
方法与目前一些主流使用预训练做QA、IR任务类似,把原始Query与Candidates使用分隔符隔开作为输入语料,用生成任务完成预训练。理论上用上了预训练之后,上下文的context可以被编码得更好。
2.对Query Session建模
除了对单个Query编码,目前很多工作也会关注如何对用户一组Query Session进行建模,Session中包含了上下文语境,也包含了Query经多次修改最终成为目标Query的转移关系。
《Learning to Attend, Copy, and Generate for Session-Basedery Suggestion》
如果构建Query Suggestion的生成模型,baseline方案一般就是准备好Query pairs,扔进NMT里。本工作是在此基础上做一些改进,首先input端将编码整个search session,其次是在模型中加入attention和copy机制。这些可以说都是借鉴了文本摘要生成的一些技巧,这项task也比较类似,所以最终结果相较seq2seq是有所提升的。
3. 挖掘更多维度的特征
除了捕捉Query Session内的语义,后续相关工作的关注点也在我们如何利用query以外的信息作为特征。
《RIN: Reformulation Inference Network for Context-Aware Query Suggestion》
比如在本篇工作中,整体架构是做了Candidate Query判别器、Query生成以及Query改写这三项任务的 Multi task,模型中增强了session中相邻Query的交互。
重点是在feature部分,作者利用Query点击的网站,构建起了图结构,使用 Node2Vec 获得各节点的向量,将向量融合进了Query编码中。
《Context Attentive Document Ranking and Query Suggestion》
对Query与Website的点击关系可以展开成Term到Website的关联,相应的,对文档一侧也可以对Term做展开。
这里就对Document的信息做了进一步的编码,一起融合进网络中,以此提高对上下文语义的感知度。同时,排序的相关Loss也被计算在内,协同优化Query Suggestion的效果。
五、总结
对于较长的Query如何做Query扩展,我们在本文记录了相关工作调研,总结起来需要注意的是:Query编码整体与其他NLP任务类似,注意负样本的采样,可以尝试各种attention、copy和交互方法;可以尝试将具体task目标融入到扩展�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E4%B8%81%E9%A6%99%E5%9B%AD%E6%90%9C%E7%B4%A2%E4%B8%AD%E7%9A%84%E6%89%A9%E5%B1%95%E6%8A%80%E6%9C%AF%E4%BA%8C/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com