搜索中的扩展技术
丁香园大数据 NLP
前言
最近,我司各条业务线对于搜索优化的需求日益增多,NLP 组也将对搜索业务给予更多的工作支持。后续分享,我们会关注过往的知识图谱、短本文理解等相关技术如何落地到搜索业务中。
影响搜索结果的因素有很多,包括对 短文本的正确理解(实体词识别、纠错、意图分析等)、 长文本良好结构化(关键词抽取、主题词抽取、文本分类等)以及 排序模型(召回策略、LTR、语义匹配等)。各种优化算法落在以上三个步骤中,对不同指标产生影响。
对于搜索优化,我们的建议是从 召回策略 开始着手。理由是这个步骤与实际业务方最近,当理清业务逻辑后,可以快速实施,看见变化。另外, 召回 阶段是整个搜索流程中的 基石,所有后续的排序都基于召回的候选列表,先规划好召回策略,才可能尽量避免后续调整基石,导致与后续**“精排”**相互影响的境地。
那么改进 召回 我们一般会做些什么呢?首先一定是通过产品分析、用户调研来了解什么内容适合在这个搜索场景里展示,随后抡起大刀修改检索的字段或公式。有了 baseline 之后,我们在观察检索回的内容有什么问题。可能是没有匹配内容,可能是最匹配的内容排序靠后,或者可能是除了字面匹配,其他内容相关性差等等。此时,就可以上一些影响 召回 的模块,比如 Query 词权重分配、 动态时效性判定、 Query 扩展 等。后面会陆续有文章分享其他技术,本文我们先关注如何做 Query 扩展。
总的来说, 召回 于搜索是满足检索内容的大概范围,排序是次要的,需要关注的是 Query 与召回列表的相关度(字词层面和主题层面)。我们需要 Query 扩展技术 的原因这里大致将它们归纳为 三 个方面。 首先,用户输入的 Query 普遍较短,平均 2-3 个词,可能无法很好命中需要找的内容; 其次,Query 中的词通常会与多个主题关联,搜索引擎根据简短的几个词检索返回的内容可能不是用户所关心的那个主题; 另外,用户可能对自己找的东西只有一个大致的概念(举个栗子,假设用户想要找“黑人抬棺”的视频,但是并不知道这个词的准确表述,转而使用“棺材”、“黑人” 这些词来搜索),Query 扩展此时可理解为类似联想的功能,或者可以理解为将某个“罕见”搜索词改写成“常见”搜索词。
完整的 Query 扩展 技术路线可见下图
对原始 Query 首先需要做若干预处理,包括必要的 纠错、补全,从 Query 中筛选出需要进行扩展的 主题词或实体词,对最终的目标词完成扩展。这里我们着重关注 Expansion Terms 部分。
从哪里扩展
首先考虑扩展词从哪里来,这点上的思路和大部分语义相关的 NLP 任务类似,想法其实很直白,要不从 用户习惯、行为 中来,要不从描述 事物本身语义 中来:
一、业务场景语境
从用户的搜索 log 中可以挖掘出大量搜索词的固定搭配
这些词首先保证了与原始 Query 较高的匹配度(都包含“知识”这个词),在业务上也满足大多数用户关注的话题。缺点是这一类扩展词仅来自于统计学层面,与语义无关,无法满足语义层面上的相关性。
二、文档语料
除了来自用户的搜索 Query,文档库也是扩展词的重要来源。丰富的语境能够提供词之间的相互关系
这类扩展词的缺点也比较明显,它与原始 Query 存在文本上的差异较大,增加召回的同时,可能会牺牲一定的匹配度。
三、构建领域知识库
最后一个途径是构建特定的领域知识库,优点是对语义相关度可以做更精准的控制,但是构建成本较高,同时如何将知识信息融入到原统计机器学习的算法中也有不小难度。
当然,理想的形态必然是混合以上三种来源,取其优点,可以观察谷歌的相关搜索:
融合了字面、语义、知识多方面的相关性。
扩展模型思路
到模型部分,主要处理的就是原始 Query 中的 term 与待扩展的 term/phrase 如何产生关联。目前主流方案为两大类,一类是以贝叶斯模型为核心,统计扩展 term 与 Query 之间的条件概率。另一类的思路是把问题抽象成一个翻译模型,将 Query 中的词从 scr 到 target 语言完成改写。
一、相关模型
这种方案其实特别直白,Query 词与扩展词在语料中 共现值 越大,说明它们相关性越高。也很容易想到使用 TF-IDF 一类的方式去做。经典的文献可以看这篇早在 02 年发表的工作:
《Probabilistic Query Expansion Using Query Logs》
作者提出需要做 Query 扩展的原因是认为用户输入的 Query 词与实际文档集中的词存在差异,所以在传统 BM25 算法搜索的过程中很有可能无法命中。下图是作者做的验证工作,将文档和 Query 都使用词袋向量表示,向量中元素值为 TF-IDF,可以看到峰值区间对应的相似度并不高。
需要构建这种联系很自然的方式就是利用用户行为日志数据,用贝叶斯模型构建概率分布:
最终公式可以表示为:
式子右侧括号中分别融合了扩展词在文档集中的 先验概率、Query 词与文档在交互 session 中的 共现频数 以及 Query 词在交互 session 中的 频数。
虽然这篇文章过去了将近 20 年,但是后续的利用相关模型的算法都逃不出这个套路,方法简单却有效,在刚着手做该任务时不妨可以选它作为 baseline。
往后大家对于这个套路的 Query 扩展优化,多关注于提高扩展词的质量。一个很自然的逻辑就是可以用 term 作为扩展词,同样地,phrase 或 concept 短语也可以。
《Context-Aware Query Suggestion by Mining Click-Through and Session Data》
比如类似这篇文章中,因为 Query 中出现的 term 与它们对应的主题是多对多的,作者通过 Query 聚类挖掘出潜在的几种意图 concept 词,结合考虑 Query Session 的问题再进行后续扩展。
二、翻译模型
除了挖掘出扩展词的方案,另一个方向是对 Query 词进行直接改写。仍然从最简单的开始,各种复杂模型的起点其实都源自符合人类直觉的简单假设。
《The Mathematics of Statistical Machine Translation: Parameter Estimation》
这是篇年代更加久远的文章,发表于 1993 年,它就是著名的 <span>IBM算法</span>
。本身与 Query 扩展无关,主要工作是做机器翻译,但是它阐述了翻译模型最原始的假设:
完成翻译,我们要完成的无非是两件事:1)给定一个待翻译的句子,返回目标语言表达这个句子各个词意思的词;2)将原始语言的词与目标语言的词一一对应(alignment)。
而 <span>IBM算法</span>
的核心就是把这个问题抽象成“对齐”分布式是一个隐变量的概率问题:
利用 <span>EM算法</span>
完成求解即可。
《Towards concept-based translation models using search logs for query expansion》
做 Query 扩展时,这一思想也被迁移过来:
连公式的形式都与原 <span>IBM算法</span>
是一致的,式子中 theta 就是改写操作中原始词与目标词的对齐概率参数。文章中,作者也进一步实验了 phrase 和 concept 词的结果。同时,配合 term weighting 一起食用,效果更好喔!
《Learning to Rewrite Queries》
再后续,大家会考虑进一步优化 alignment 分布的学习以及融入更多的语义特征进去,毕竟 <span>IBM算法</span>
仅从统计词频的角度估算分布还是太过单薄。近年来深度学习的发展自然就带动一些传统模型向神经网络向的方法上迁移:
《Ask the Right Questions: Active Question Reformulation with Reinforcement Learning》
谷歌在 2018 ICLR 上发表的工作合并了使用序列模型完成 Query 改写,考虑使用强化学习来进一步增强
这个方案的大致思路是,模型与索引系统连接,若改写后的 Query 可以索引出排序更靠前的内容,则给予强化模型正向的激励。而且,train 好的强化模型也可以倒过来 finetune 改写模型。
增强语义相关性
可以看到,计算原始 Query 到扩展词或改写词的关联已经有非常多成熟的方法,甚至可以在自己场景里设计比较 tricky 的强化模型方案。而我们认为进一步提高效果的关键,还是需要主动对 业务内容的组织、理解、良好的结构化。目前火热的各种文本预训练模型、知识图谱等都印证了这一点。常常看到有人看衰知识图谱发展,不可否认因为它没有一个大而独立的场景,所以它必然无法像 CV 那样大放光芒。但是我们一直认为知识图谱的技术目前最合理的使用方案是浸润在日常的各个技术中,它是帮助老技术突破瓶颈的途径,没有新东西,听起来当然不够性感。
说到这里,我们对语义相关性的增强就可以利用在往期标签生成的文章中提到的方法
《A User-Centered Concept Mining System for Query and Document Understanding at Tencent》
利用大量 Query 的点击数据,挖掘出该场景下的各种 concept 词。进一步,我们将 concept 词与医学知识图谱形成关联,从而替代了前面提到的 Query 聚类方案。
简单实践
挖掘出高质量的 Concept 词后,由上文提到的关联模型就可以获得不错的效果:
当遇到多个实体,使用关联打分即可:
总结
总的来说,Query 扩展本身并不算一个复杂的工作,想要最终效果做得好,我们的建议是: 把复杂的工作向后撤。生成模型或者强化模型看起来很 fancy,操作门槛以及工程上的支持难度都较大。踏踏实实做好数据结构化(知识图谱构建、知识表示学习、长文本标签化等等),在下游应用里,用简单模型就能看到效果。有了 baseline 之后,我们会考虑用复杂的方案把关联性构建得更好。
参考文献
[1]. Probabilistic query expansion using query logs
[2]. Ask the Right Questions- Active Question Reformulation with Reinforcement Learning
[3]. Concept-Based Interactive Query Expansion
[4]. Query Expansion Techniques for Information Retrieval- a Survey
[5]. A Taxonomy and Survey of Semantic Appr
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E6%90%9C%E7%B4%A2%E4%B8%AD%E7%9A%84%E6%89%A9%E5%B1%95%E6%8A%80%E6%9C%AF/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com