深入理解推荐系统召回
写在前面
作为【推荐系统】系列文章的第二篇,将以“召回”作为今天的主角,会从四个方面来介绍召回的不同算法方式,即基于内容的召回、协同过滤、基于 FM 模型召回和基于深度学习的方法。
一、背景介绍
召回是推荐系统的第一阶段,主要根据用户和商品部分特征,从海量的物品库里,快速找回一小部分用户潜在感兴趣的物品,然后交给排序环节。这部分需要处理的数据量非常大,速度要求快,所有使用的策略、模型和特征都不能太复杂。下面主要介绍四种常见的召回方法:
- 基于内容的召回:使用 item 之间的相似性来推荐与用户喜欢的 item 相似的 item。
例如:如果用户 A 看了《绣春刀 2》这部杨幂主演的电影后,则会为他推荐杨幂主演的其他电影或电视剧
- 协同过滤:同时使用 query 和 item 之间的相似性来进行推荐。
例如:如果用户 A 与用户 B 类似,并且用户 B 喜欢视频 1,则系统可以向用户 A 推荐视频 1(即使用户 A 尚未看过任何与视频 1 类似的视频)。
- 基于 FM 模型召回:FM 是基于矩阵分解的推荐算法,其核心是二阶特征组合。
- **基于深度神经网络的方法:**利用深度神经网络生成相应的候选集。
二、基于内容的召回
基于内容的召回( CB 召回 ),一般也叫做标签召回。当谈起 CB 的时候,大家可能会觉的很简单,用 tag 或者用 cate 召回就行了,好像没什么可做的。可事实上,CB 并不仅仅是用 tag 和 cate 做个倒排就搞定了。这类召回的核心思想是基于 item 自身的属性,这些属性可以表达为 tag,Cate,也可以用来表达用户 ID,用户类型等,更可以通过 ⼀些交叉验证的 ⽅式,针对内容提取向量,将内容表达为连续向量的方式进行召回。接下来我们进一步来理解基于内容的过滤。
在实际的应用中,如电影推荐,首先我们根据用户之前的历史行为信息(如点击,评论,观看等),CB 会使用 item 相关特征来推荐给用户与之前喜欢的 item 类似的 item。为了更形象的表示 CB,假设一个应用商店要推荐给用户相应的 APP。下图是相应的特征矩阵,其中每一行代表一个应用程序,每一列代表一个特征。包括不同的类别特征,应用程序的发布者信息等。为简化起见,假定此特征矩阵是布尔类型的的:非零值表示应用程序具有该特征。
还可以在同一特征空间中表示用户。一些与用户相关的特征可以由用户明确提供。例如,用户在其个人资料中选择“娱乐应用”。其他特征可能是隐式的,具体取决于它们先前安装的应用程序。例如,用户安装了由 Science R Us 发布的另一个应用程序。
模型应推荐与此用户有关的 item。为此,必须首先选择一个相似性指标(如,点积)。然后,推荐系统会根据此相似性度量标准为每个候选 item 打分。请注意,建议是针对该用户的,因为该模型未使用其他用户的任何信息。
2.1 基于内容召回的优点
- 该模型不需要其他用户的任何数据,因为推荐是针对该用户的。 这使得更容易扩展到大量用户。
- 该模型可以捕获用户的特定兴趣。
2.2 基于内容召回的缺点
- 由于 item 的特征表示在某种程度上是手工设计的,因此该技术需要大量领域知识。因此,模型很依赖手工设计特征的好坏。
- 该模型只能根据用户的现有兴趣提出建议。换句话说,该模型扩展用户现有兴趣的能力有限。
基于内容的召回看似比较容易,如果当我们的 item 属性越来越多的时候,比如 ⼀个视频可能有多个平行的 tag 以及其它属性,那么,为了把这些信息综合利用起来,我们还会利用多 term 检索的方式,去提升 CB 的效果。下面,我们针对这些内容详细的来聊 ⼀聊 CB 的常见优化点。
2.3 倒排优化
优化倒排的主要目的是提升 cb 召回的推荐效果,常见的倒排基本是和线上排序指标 ⼀致的,比如,如果排序的指标是点击率,倒排理所应当,也是点击率。但这样的排序方式有个小问题,因为倒排排序使用的是后验的值,而排序通常也是单指标排序,这样,就很容易出现我们之前提到的,单指标被 hack 的问题,比如,用点击率倒排,头部都是标题党等。所以,这个问题是需要额外注意的。另外,也要考虑指标的 bias 的问题,例如,用完成率倒排导致短的视频都排到了头部。这种问题可以通过归一化的方式缓解。但有 ⼀个潜在风险,资源的后验表现的分布往往会跟资源本身的类型有关。
2.4 触发 key 的优化
key 的优化要求只有 ⼀点,保证每次选择的 key,是用户点击概率最 ⼤的 key 即可,所以通用的方式是把用户的点击历史按照属性加和取 top,比如,在某个类别上点击的次数排序,把点击次数最多的那几个类别留作触发的 key,这个过程很简单,没太多优化点,我们就不继续讨论了。这 ⾥想聊的是关于用户不 ⼀样的行为差异化权重的问题,我们选取 key 的过程实际是判断用户对某 ⼀类内容感兴趣的过程,也就是通过行为,来判断用户的感兴趣程度,在只有浏览功能的产品 ⾥,点击就是表达用户兴趣的唯一行为,但产品通常会设计很多交互功能,来帮助用户进行有效的兴趣表达,所以,在触发 key 的选取的时候需要考虑到这 ⼀点,至于怎么做是和业务形态相关的事,这 ⾥就不展开了。
2.5 多维度内容属性
最后,我们来讲 ⼀下 cb⾥ ⾯比较高阶的问题,多 term 的问题。我们先考虑这样 ⼀种情况,一个视频有很多个 tag,tag 的特性是平行不唯 ⼀。我们在线通过点击量汇聚得到了用户的高频点击 tag,通常的方式是,每 ⼀个 tag 都会有 ⼀个倒排,然后各自召回。但很容易想到的,当用户同时有“帅哥”,“萌宠”这两个 tag 的时候,通过萌宠给用户召回 ⼀个美女 + 萌宠的视频显然没有召回 ⼀个帅哥 + 萌宠的视频更有吸引力,也就是说,我们在召回的时候,如果能同时考虑多个 term 之间的关系,会更有效 ⼀些。传统搜索 ⾥对于多 term 召回是有 ⼀套实现方式的,通过设置每个 term 的权重,可以在返回结果 ⾥去得到包含多 term 的结果,这部分属于搜索架构的内容范畴,我在此不展开了,有兴趣的同学可以找身边做搜索的同学了解 ⼀下。我们讲 ⼀个更和推荐 match 的方式,用户身上有多个标签,内容上面也有多个标签,我们在做多 term 匹配的时候,就是标签的 list 到标签的 list,使得他们点击的概率最大即可。是不是觉得豁然开朗了?是不是转化成点击率建模问题了?更简单地,直接使用 word2vec,把用户标签和内容标签作为 ⼀个 sentence 训练,再离线把内容的标签加和表征为内容的属性向量,在线做召回即可。当然,也可以 ⽤更复杂的 ⽅式来做,提升精度,大同小异,就不展开说了。那作者,内容的其他纬度等信息也是可以 ⼀样的方式加进去的,这就留给大家来讨论了。
三、协同过滤
为了解决基于内容的召回所存在的弊端,人们提出了协同过滤召回方式(Collaborative filtering,CF),CF 同时使用 user 和 item 之间的相似性来进行推荐。 这样可以提高模型的推荐拓展性。也就是说,协同过滤模型可以根据相似用户 B 的兴趣向用户 A 推荐商品。此外,可以自动学习 Embedding,而无需依赖手工设计的特征。
一般来说,协同过滤推荐分为三种类型。第一种是 基于用户(user-based)的协同过滤,第二种是 基于项目(item-based)的协同过滤,第三种是 基于模型(model based)的协同过滤。
- **基于用户(user-based)的协同过滤:**主要考虑的是用户和用户之间的相似度,只要找出相似用户喜欢的物品,并预测目标用户对对应物品的评分,就可以找到评分最高的若干个物品推荐给用户。
- **基于项目(item-based)的协同过滤:**和基于用户的协同过滤类似,只不过这时我们转向找到物品和物品之间的相似度,只有找到了目标用户对某些物品的评分,那么我们就可以对相似度高的类似物品进行预测,将评分最高的若干个相似物品推荐给用户。比如你在网上买了一本机器学习相关的书,网站马上会推荐一堆机器学习,大数据相关的书给你,这里就明显用到了基于项目的协同过滤思想。
- **基于模型(model based)的协同过滤:**是目前最主流的协同过滤类型了,所含算法是非常之多的,如矩阵分解、关联算法、聚类算法、深度学习、图模型等等。
这里我们带来一个有关电影推荐系统的简单例子帮助更好的理解协同过滤。首先,考虑一个电影推荐系统,其中训练数据由一个反馈矩阵组成,其中每行代表一个 user,每一列代表一个 item。
关于电影的反馈分为以下两类:
- 显示反馈:用户通过提供评分来指定他们对特定电影的喜欢程度。
- 隐式反馈:如果用户观看电影,则系统会推断用户感兴趣。
假设反馈矩阵是布尔类型的,即值为 1 和 0 分别表示对电影是否感兴趣,当用户访问首页时,系统会根据以下两种情况推荐电影:
- 与用户过去喜欢的电影相似(Item-Based CF)
- 类似用户喜欢的电影(User-Based CF)
为便于举例阐述,让我们手工设计用以描述电影的一些特征:
3.1 一维 Embedding
假设我们为每部电影分配一个标量,用于描述该电影是适合儿童(负值)还是适合成人(正值)观看。 假设我们还为每个用户分配了一个标量,用于描述用户对儿童电影(接近-1)或成人电影(接近 +1)的兴趣。 对于我们希望用户喜欢的电影,电影 Embedding 和用户 Embedding 的乘积应更高(接近 1)。
在下图中,每个对号标记都标识特定用户观看的电影。 第三和第四用户具有的特征很好地表示了用户的偏好:第三用户偏爱儿童电影,第四用户偏爱成人电影。 但是,单个特征无法很好地表示第一和第二用户的偏好。这时候需要考虑二维甚至更高维度的特征。
3.2 二维 Embedding
一个特征不足以解释所有用户的偏好。 为了克服这个问题,让我们添加第二个特征:每部电影是商业流行片或是小众文艺片上的表现程度。 通过这个特征,我们现在可以使用以下二维 Embedding 来表示每部电影:
我们再次将用户放置在相同的嵌入空间中,以最好地解释反馈矩阵:对于(用户,商品)对,我们希望用户 Embedding 和商品 Embedding 的点积在用户观看商品时接近 1 电影,否则为 0。
在这个例子中,我们对 Embedding 进行了手工设计。在实践中,可以自动学习 Embedding 向量表示,这是协同过滤模型的强大功能。在接下来的内容中,我们将讨论学习这些嵌入表示的不同模型以及如何对其进行训练。
当模型自动学习 Embedding 时,这种方法的协同性质就显而易见了。假设电影的 Embedding 向量是固定的。然后,模型可以为用户学习 Embedding 向量,以最好地解释他们的偏好。 因此,具有相似偏好的用户的 Embedding 将紧密在一起。同样,如果用户的 Embedding 是固定的,则我们可以学习电影 Embedding 以最好地解释反馈矩阵。结果,类似用户喜欢的电影的 Embedding 将在 Embedding 空间中紧密在一起。
3.3 基于模型(model based)的协同过滤
矩阵分解是一个简单的 Embedding 模型。 给定反馈矩阵 ,其中 是用户(或 query)数量, 是 item 数量,该模型将学习:
- user Embedding 矩阵 ,其中第 i 行是 的 Embedding。
- item Embedding 矩阵 ,其中第 j 行是 的 Embedding。
Embedding 通过学习,使得 的乘积是反馈矩阵 的良好近似。 的 项就是 和 对应的两个 embedding 的点积,使其尽量接近 。
注意:与学习完整矩阵相比,矩阵分解通常会得到更简洁的表示。 完整矩阵具有 项,而 Embedding 矩阵具有 项,其中 Embedding 维数 通常比 和 小得多。 最终,观测矩阵会被映射到低维子空间中,矩阵分解就可以在数据中找到其对应的潜在信息。 在前面的示例中, , 和 的值都非常小,因此优势可以忽略不计。 但是,在现实世界中的推荐系统中,矩阵分解可以比学习整个矩阵要简洁得多。
3.4 选择目标函数
一种直观的目标函数是距离的平方, 即在所有观察到的矩阵项上最小化平方误差之和:
在此目标函数中,只求观察到的对 的误差和,即对反馈矩阵中的 非零值 求和。 但是,只求 1 的误差总和并不是一个好方法。最小化矩阵中所有为 1 元素产生的模型,并不能进行很好的推荐,而且泛化性较差。
也许可以将未观察到的值视为零,并对矩阵中的所有条目求损失和。这样其实就是最小化 及其近似值 之间 Frobenius 距离的平方:
可以通过矩阵的奇异值分解(SVD)解决此二次问题。 但是,SVD 并不是一个很好的解决方案,因为在实际应用中,矩阵 可能非常稀疏。 例如,将抖音上所有视频与特定用户观看过的视频进行比较。 得到的解 (对应于模型对输入矩阵的近似值)可能接近于零,从而导致泛化性能较差。
相比之下,加权矩阵分解将目标分解为以下两部分的和:
- 观察到的误差和
- 未观察到的误差和(视作 0)
是调节两项加权的超参,以使目标不被其中一项所支配。 调整此超参数非常重要。
在实际应用中,还需要仔细权衡观察到的数据。例如,频繁的 item(如,非常受欢迎的视频)或频繁的 query(例如,重度用户)可能会主导目标功能。可以通过对频繁出现的 item 所对应的训练样本进行加权来纠正此影响。 换句话说,您可以将目标函数替换为:
是 query 和 item 对应的频率函数。
3.5 最小化目标函数
最小化目标函数的常用算法包括:
- **随机梯度下降(SGD)**是使损失函数最小化的通用方法。
- **加权交替最小二乘(WALS)**专用于此特定目标函数。
在两个矩阵 和 中,每个目标都是二次的。(需要请注意的是,联合问题并不是凸的)WALS 的工作方式是随机初始化 Embedding,然后在以下条件之间交替进行:
- 固定 求解 。
- 固定 求解 。
每步都可以准确地求解(通过线性问题的解决方法)并可以进行分布式计算。 该技术可以保证收敛,因为可以确保每一步都可以减少损失。
3.6 SGD 和 WALS
下面对 SGD 和 WALS 优缺点进行比较:
**SGD 优点:**非常灵活:适用于其他损失函数;可以并行化。
**SGD 缺点:**较慢,收敛速度不那么快;难以处理未观察到的项(entries),需要使用负采样或 gravity。
**WALS 优点:**可以并行化;收敛速度比 SGD 更快;更容易处理未观察到的项(entries)。
**WALS 缺点:**仅适用于平方损失;
3.7 协同过滤的优缺点
优点
- 无需领域知识:不需要相关领域知识,因为 Embedding 是自动学习的。
- 发掘用户兴趣:该模型可以帮助用户发现新的兴趣点。 系统可能并不知道用户对给定的 item 的兴趣度,但是模型仍会推荐给他,因为相似的用户有着相同的兴趣点。
- 很好的初始模型:在某种程度上,该方法仅需要反馈矩阵即可训练矩阵分解模型。 而且该方法不需要上下文特征。 实际上,该方法可以用作多个召回队列中的一个。
缺点
- 冷启动问题
模型预测结果是给定的(用户,商品)相应 Embedding 的点积。因此,如果在训练数据中 item 从未出现过,则系统也无法计算其 Embedding,也无法得到相应的预测结果。此问题通常称为冷启动问题。但是,以下技术可以在某种程度上解决冷启动问题:
(1)利用 WALS 进行预测。给定一个在训练集中未出现的 item,如果系统与用户有一些交互,则系统可以很容易计算出该 item 的 Embedding,而无需重新训练整个模型。只需求解以下方程式或其加权形式:
上述方程对应于 WALS 中的一个迭代:用户 Embedding 保持固定,系统求解 item 的 Embedding。对于新用户也可以这样做。
(2)启发式生成新 item 的 Embedding。如果系统没有相应的交互信息,则系统可以通过对来自同一类别,来自同一上传者(在视频推荐中)的 item 的 Embedding 进行平均来近似其 Embedding。
- 难以融入 query/item 的附加特征
附加特征是 query 或 itemID 以外的其他特征。 对于电影推荐,附加特征可能包括国家或年龄。 融入可用的附加特征可以提高模型的效果。 尽管在 WALS 中融入付诸特征可能并不容易,但是 WALS 的泛化模型使这成为可能。
四、基于 FM 模型召回
FM 是 Steffen Rendle 在 2010 年提出的,FM 算法的核心在于特征组合,以此来减少人工参与特征组合工作。对于 FM,其优势可分以下三点:
- FM 能处理数据高度稀疏场景,SVM 则不能;
- FM 具有线性的计算复杂度,而 SVM 依赖于 support vector。
- FM 能够在任意的实数特征向量中生效。
FM 的数据结构如下:
FM 特征数据结构:User 相关、Item 相关、类别相关的特征、历史行为数据特征等等,最后一列可看作是 User 对 Item 评分。FM 通过不同特征的组合,生成新的含义。然而,特征组合也随之带来一些问题:
- 特征之间两两组合容易导致维度灾难;
- 组合后的特征未必有效,可能存在特征冗余现象;
- 组合后特征样本非常稀疏,如果原始样本中不存在对应的组合,则无法学习参数,那么该组合就显得无效。
虽然有这些缺点,但是也并不影响 FM 在广告推荐领域的地位,每个算法都有风靡一时的过去,抱着敬畏之心的态度去学习是没问题的。下面,来看看如何基于 FM 来做召回的。
4.1 具体召回过程
基于 FM 的召回与完全版本的 FM 不同,这里会放弃 与 特征组内部的二阶交互,即没有了 age、gender、item_id、cate_id 这样的交互,仅是进行到求解隐向量阶段。
这里是“推荐系统召回四模型之:全能的 FM 模型”一文中给出的极简的 FM 召回模型,即不考虑上下文特征。
第一步,对于某个用户,我们可以把属于这个用户子集合的特征,查询离线训练好的 FM 模型中这个用户对应的 特征 embedding 向量(FM 模型求解出的隐向量,即 ,其长度为 ,包含 个描述特征的因子),然后将这个用户对应的 n 个特征 embedding 向量累加,形成这个用户的兴趣向量 U,这个向量维度和每个特征的维度是相同的。
类似的,我们也可以把每个物品,其对应的物品子集合的特征,查询离线训练好的 FM 模型对应的特征 embedding 向量,然后将 m 个物品子集合的特征 embedding 向量累加,形成物品向量 I,这个向量维度和每个特征的维度也是是相同的。
第二步,对于每个用户以及每个物品,我们可以利用步骤一中的方法,将每个用户的兴趣向量离线算好,存入在线数据库中比如 Redis(用户 ID 及其对应的 embedding),把物品的向量逐一离线算好,存入 Faiss(Facebook 开源的 embedding 高效匹配库)数据库中,进行 knn 索引,然后高效检索。
第三步,当用户登陆或者刷新页面时,可以根据用户 ID 取出其对应的兴趣向量 embedding,然后和 Faiss 中存储的物料 embedding 做内积计算,按照得分由高到低返回得分 Top K 的物料作为召回结果。
有关 FM 召回更加详细的内容: https://zhuanlan.zhihu.com/p/58160982
4.2 矩阵分解和 FM
可以认为 FM 是加了特征的矩阵分解(MF),原来用户和物品侧都只有一个 id 特征,现在用户侧加了年龄、性别、学历等特征,物品侧加了品类、店铺等特征,然后进一步融入到 FM 模型后,它将所有的特征转化为 embedding 低维向量表达,然后用户侧的特征和物品侧特征两两矩阵分解,即两两特征 embedding 的内积,得到特征组合的权重。
五、基于深度神经网络模型
前文讲述了如何使用矩阵分解来学习 Embedding。 矩阵分解的一些限制包括:
- 使用附加特征(即 queryID /itemID 以外的其他特征)困难。 因此只能对训练集中存在的用户或 item 进行推荐。
- 推荐的相关性。 正如前文所描述的那样,倾向于向所有人推荐热门 item,尤其是在使用点积作为相似性度量时。 难以刻画特定的用户兴趣。
深度神经网络(DNN)模型可以解决矩阵分解的这些限制。 DNN 可以轻松地融入 query 特征和 item 特征(由于网络输入层的灵活性),这可以帮助捕获用户的特定兴趣并提高推荐的相关性。
5.1 Softmax DNN 模型
一般而言,DNN 模型是利用 softmax 作为最后一层的输出,它会将问题视为多分类问题,其中:
- 输入是用户 query。
- 输出是一个概率向量,其大小等于语料库中 item 的数量,代表与每个 item 进行交互的概率; 例如,点击或观看视频的可能性。
输入层
DNN 的输入可以包括:
- 稠密(dense)特征(如,点击频率、观看时长等)
- 稀疏(sparse)特征(如,观看视频类型、地区等)
与矩阵分解方法不同,可以添加年龄或地区等附加特征。 我们用 x 表示输入向量。
模型结构
模型结构决定了模型的复杂性和表达性。 通过添加隐藏层和非线性激活函数(例如 ReLU),模型可以捕获数据中更复杂的关系。 但是,增加参数的数量通常也会使模型更难训练且服务成本更高。 我们将用 表示最后一个隐藏层的输出。
输出层: 预测的概率分布
该模型通过 softmax 层将最后一层的输出映射到概率分布 ,其中:
是 softmax 函数,
是 softmax 层的权重矩阵。
softmax 层将分数矢量 (有时称为 logits)映射到概率分布。
损失函数
最后,定义用以比较以下两项的损失函数:
,softmax 层的输出(概率分布)
,groud-truth,代表用户与之互动的 item(例如,用户点击或观看的视频)。 这可以表示为归一化的 muti-hot 分布(概率向量)。
例如,可以使用交叉熵损失来比较两个概率分布。
Softmax Embedding
的概率由 给出,其中 是不依赖于 的归一化常数。
换句话说, ,因此, 的对数概率是(最大为加法常数)两个 维矢量的点积,可以将其解释为 query 和 item Embedding:
是最后一个隐藏层的输出。 我们称其为 query 的 Embedding。
是将最后一个隐藏层连接到输出 的权重向量。 我们称其为 item 的 Embedding。
5.2 DNN 和矩阵分解
在 softmax 模型和矩阵分解模型中,系统对于每个 item 学习一个 Embedding 向量 。 我们在矩阵分解中所谓的 item Embedding 矩阵 是 softmax 层的权重矩阵。但是,用户 query Embedding 是不同的。 将不再对每个 query 学习一个对应的 query Embedding 向量,而是学习从 query 特征 到 Embedding 的映射 。 因此,可以将此 DNN 模型视为矩阵分解的泛化,其中将 query 侧替换为非线性函数 。
item 特征使用
可以将相同的想法应用于 item 侧吗? 也就是说,除了对每个 item 学习一个对应的 Embedding 之外,模型可以学习将 item 特征映射到 Embedding 的非线性函数吗? 当然可以。可以使用由两个神经网络组成的双塔模型:
如上图所示,DSSM 模型最早被提出是用来提升搜索场景下文档和 query 匹配的问题,模型接受两个输入到两个神经网络中,通过模型编码到同一个语义向量空间。对于推荐排序场景:
- 一种神经网络将 qeury 特征 映射到 qeury Embedding
- 一个神经网络将 item 特征 映射到 item Embedding
模型的输出可以定义为 的点积。 请注意,这再是 softmax 模型。 新模型对每对 预测一个值,而不是每个 query 的概率向量。
5.3 softmax 训练
前文解释了如何将 softmax 层合并到推荐系统的深度神经网络中。 下面介绍如何利用训练数据对模型参数进行求解。
训练数据
训练数据由 query 特征 和与用户进行交互的 item 向量组成(表示为概率分布 )。在下图中,标记为蓝色。 模型的变量是不同层中的权重。 在下图中,标记为橙色。 通常使用随机梯度下降相关方法来训练模型。
六、更多召回模型
YouTube DNN 召回: YouTube 在 2016 年发表的论文《Deep Neural Networks for YouTube Recommendations》为背景进行 YouTube 的深度神经网络推荐模型的介绍。YouTube 的 dnn matching 召回,将用户和 context 特征输入 DNN,用隐含层最后一层作为向量表示,用 Softmax 每个 item 对应的参数作为 item 的向量表示,通过内积最大索引得到 top k
论文地址: Deep Neural Networks for YouTube Recommendations
DSSM 语义召回: DSSM 模型是微软 2013 年发表的一个关于 query/ doc 的相似度计算模型,后来发展成为一种所谓”双塔“的框架广泛应用于广告、推荐等领域的召回和排序问题中。
论文地址: Learning Deep Structured Semantic Models for Web Search using Clickthrough Data
**RNN 序列召回:**基于用户 session 中的点击序列进行建模召回有很多种方式,其中使用 RNN 深度网络结构来刻画是其中比较有代表性的一种。相应的网络结构其实很简单,如下图所示。使用用户 session 中的点击序列作为模型输入,输出则为用户下次点击的 item 相应的得分。
论文地址: Session-based recommendations with recurrent neural networks
TDM 深度树匹配召回: TDM 模型是阿里巴巴于 2018 年提出的新一代深度召回模型,试图通过结合树结构搜索与深度学习模型来解决召回的高性能需求与使用复杂模型进行全局搜索与之间的平衡。它将召回问题转化为层级化分类问题,借助树的层级检索可以将时间复杂度降到对数级。即认为用户对某节点的兴趣是大于等于其叶子节点的,所以只需在每层选出 topk,且在下一层仅计算上一层选出来的节点相应子节点的兴趣,对于规模为 M 的语料库,只需要遍历 2 * k * logM 个分支就可以在完全二叉�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E6%B7%B1%E5%85%A5%E7%90%86%E8%A7%A3%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E5%8F%AC%E5%9B%9E/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com