阿里算法专家谈大规模推荐系统粗排层的设计与实现
这里是「 王喆的机器学习笔记」的第三十七篇文章。今天我们「 AI大咖谈」邀请的大咖是阿里的算法专家王哲,所以今天是一次王喆对王哲的访谈。
王哲是上一届 DLP-KDD workshop Best Paper Award 的获得者,获奖paper COLD: Towards the Next Generation of Pre-Ranking System 深入探讨了阿里大规模推荐系统粗排层的设计和实现,是我非常推崇的业界实践文章。所以今天我们也围绕大规模推荐系统方向提出了十个问题,来看一下业界最前沿推荐系统的实践经验。
大咖简介
王哲,花名公渡,2017年中国科学技术大学计算机专业硕士毕业。曾在蚂蚁金服负责跨境游的推荐营销算法。目前为阿里妈妈展示广告团队算法专家,负责粗排及全链路联动的相关工作,有多篇顶会论文。
王哲同时也是一名知乎大V @萧瑟
,对他的工作感兴趣的同学也可以直接跟他沟通
1. 去年DLP-KDD的best paper COLD的工作非常精彩,业界影响里非常大,能否简单的介绍一下它的主要思路?
COLD是一个非常典型的算法-系统 Co-Design 的工作。它没有限制模型结构,可以支持任意复杂的深度模型,COLD的网络结构是以拼接好的特征embedding作为输入,后面是7层全连接网络,包含交叉特征。 整个系统是实时训练,实时打分,以应对线上分布的快速变化,对新广告冷启也更友好。当然,如果特征和模型过于复杂,算力和延时都会难以接受。因此我们一方面设计了一个灵活的网络架构可以进行效果和算力的平衡。另一方面进行了很多工程上的优化以节省算力。
粗排层在业界发展的主要阶段以及COLD的模型结构
2. 能否简单明了的介绍一下深度学习时代,召回、粗排和精排在阿里环境下的主要特点?
召回,粗排,精排,再排序层的结构这里以阿里妈妈定向广告为例做一下介绍。
召回阶段一个主要特点是规模较大,阿里妈妈这边召回阶段的广告库规模在千万左右。另一个特点是召回的目标是选择符合后链路需要的集合,因此以多路召回方式为主,通过多种方式进行集合选择。不同路选择的广告分数往往不可比。
目前我们在召回使用了基于树结构的全库检索算法 TDM,向量近临检索算法以及基于用户行为触发的相似广告召回等。
粗排阶段是从上万个广告中选择上百个送给精排,实时性约束在十几 ms 以内,除了排序逻辑之外,也包含一些广告过滤逻辑。粗排是一个承上启下的过渡模块,既有召回的特点,可以采用多通道方式进行集合选择,只不过通道往往较少。也兼具精排统一排序的要求,以便对召回的多路集合用统一价值进行度量合并。粗排的天花板是精排,因此可以通过评估和精排的对齐程度来判断粗排的迭代空间。
精排阶段是非常复杂的深度模型,集中了较多的算力资源,延迟往往也较高,除了点击率 / 收藏加购率 / 成交率等多目标预估模型之外。后续还有调价模块基于广告主目标对价格进行调整以平衡广告主和平台收益,同时还有一些策略打散等重排逻辑。
如果把整个级联排序系统比做火车的话,精排就是火车头,是整个系统效果的天花板,是需要重兵投入的主战场。
3. 使用Embedding+简单运算(内积,简单网络)做快速召回/粗排的做法已经十分成熟,online inference的效率也很高,它能否代替COLD? COLD相比它的主要优势又在哪里?
双塔模型的典型结构使用Embedding+简单运算的方式虽然算力和RT(Reaction Time)消耗较低,但是在很多对模型效果和实时性要求较高的场景并不能完全代替COLD。 COLD与之相比没有对模型结构进行限制, 可以使用交叉特征和更复杂的网络结构,因此具有更强的拟合能力,同时可以对算力和效果进行灵活的平衡。COLD实时训练实时打分的架构可以更好的适应数据分布的快速变化,有利于快速迭代,在冷启动上也更为友好。
4. 现在业界有一个趋势是做分层的融合,比如粗排和精排的融合,甚至召回和排序的融合,你觉得这个趋势会不会发展下去,有哪些难点?
正所谓合久必分,分久必合。召回 - 粗排 - 精排这种级联排序架构,是当初算力 RT 不足情况下的一种折中。当前确实存在分层融合的趋势。例如在召回阶段,我们也在尝试用排序的方式,突破近似检索的瓶颈,直接进行全库打分。而粗排阶段也在探索粗排和精排的联合训练,在一次训练过程中同时产出多个不同结构的模型,粗排模型只是其中一个结构较为简化的版本。这个趋势一方面是因为深度学习时代算法技术的突破,使整个级联架构在模型结构上的统一成为了可能。
另一方面也要得益于 GPU/TPU/NPU 等硬件带来的算力红利释放。随着各模块技术水位不断增加,单点迭代的难度也越来越高,从整个级联排序架构的视角进行改进,进行模块间的融合,这个趋势未来会继续发展下去。而技术上的难点一方面在于样本选择偏差问题,即前链路(召回 / 粗排)的 inference 空间和训练空间存在较大差异,从而影响了融合的效果。另一方面则是在打分规模不断提升的情况下,如何控制算力和 RT 的增长。同时不同模块之间应该如何更好的交互,也值得进一步的研究。
5. 你如何对比COLD的工作和知识蒸馏的区别?
COLD是一种新的粗排实时排序架构,知识蒸馏是一种提升模型效果的技术手段,两者并不冲突。 目前我们也在尝试,在当前COLD粗排模型的基础,通过和精排模型的联合训练以及知识蒸馏,取得了进一步的线上效果提升。
通过知识蒸馏缩小模型体积## ## 6. COLD使用了online learning,能否介绍一下你们用到的具体方法?是在什么平台(TensorFlow?Flink?Server内部?)上进行的训练?
COLD使用的Online Learning技术, 实时数据流是基于阿里妈妈自研的星云ODL系统, 底层是Blink(Blink是阿里巴巴通过改进Flink项目而创建的阿里内部产品)。训练基于的是阿里妈妈内部自研的深度训练框架XDL。模型目前是实时训练,小时级更新(我们的业务场景小时级已经足够,整个系统可以支持更高的更新频率)。
阿里基于Flink开发自研数据流平台Blink## 7. Model serving一直是业界的一个难点,COLD模型是如何部署到线上的?
粗排的线上打分系统主要包含两部分:特征计算和网络计算。特征计算部分主要负责从索引中拉取用户和广告的特征并且进行交叉特征的相关计算。而网络计算部分,会将特征转成embedding向量,并将它们拼接进行网络计算。
为了将COLD部署到线上,工程上进行了很多优化,包括:
并行化: 为了实现低时延高吞吐的目标,并行计算是非常重要的。而粗排对于不同的广告的计算是相互独立的,因此可以将计算分成并行的多个请求以同时进行计算,并在最后进行结果合并。特征计算部分使用了多线程方式进一步加速,网络计算部分使用了GPU以及和达摩院合作的NPU专用硬件。
行列转化: 特征计算的过程可以抽象看做两个稀疏矩阵的计算,一个是用户矩阵,另一个是广告矩阵。矩阵的行是batch_size,对于用户矩阵来说batch_size为1,对于广告矩阵来说batch_size为广告数,矩阵的列是featue group的数目。常规计算广告矩阵的方法是逐个广告计算在不同feature group下特征的结果,这个方法符合通常的计算习惯,组合特征实现也比较简单,但是这种计算方式是访存不连续的,有冗余遍历、查找的问题。事实上,因为同一个feature group的计算方法相同,因此可以利用这个特性,将行计算重构成列计算,对同一列上的稀疏数据进行连续存储,之后利用MKL优化单特征计算,使用SIMD (Single Instruction Multiple Data)优化组合特征算子,以达到加速的目的。
行列转化示意图
Float16加速: 对于COLD来说,绝大部分网络计算都是矩阵乘法,而NVIDIA的Turning架构对Float16的矩阵乘法有额外的加速,因此我们将粗排模型做了Float16转化。使用Float16以后,CUDA kernel的运行性能有显著提升,同时kernel的启动时间成为了瓶颈。为了解决这个问题,我们使用了MPS (Multi-Process Service)来解决kernel启动的开销。Float16和MPS技术,可以带来接近2倍的QPS提升。
8. 现在大家越来越强调Algorithm-System Codesign,我想COLD应该是这方面非常成功的案例,能否介绍一下你们的经验?如何做到不同模型和工程团队/成员之间的良好配合?
在COLD之前,粗排和精排是两套独立的模型训练和线上打分的架构,迭代维护很不方便。 COLD在架构上接耦了排序引擎和在线打分模块,统一了粗排和精排的ODL训练迭代体系和在线打分体系,一方面降低了迭代维护成本,另一方面也便于工程团队进行打分性能的专门优化。同时COLD的架构可以很灵活的对算力和效果进行平衡,不再受限于双塔结构。
团队成员配合上,首先我们团队很早就意识到了Algorithm-System Co-design的重要性, 因此专门成立了效能团队,作为联接算法和工程的桥梁,以算力优化和迭代效率作为切入点,发挥了很重要的作用。算法团队,效能团队和工程团队相互配合,工作上各有侧重。算法团队主要负责模型的迭代维护和效果上的持续提升。效能团队会在算法迭代的早期就介入,进行算力和模型的平衡。同时效能团队也通过改进优化算法的迭代链路(特征加工/ODL流/训练框架等)来帮助提升迭代效率。工程团队会更侧重于线上引擎以及打分模块的性能优化和功能需求支持。通过这种合作模式保证了COLD的上线。
9. 就你个人而言,有没有遇到模型/系统改进的瓶颈期,如何破局?站在2021年,你如何预测未来算法发展的红利在哪?
有遇到过,这里还是以COLD作为例子。在COLD上线之后,粗排进一步的迭代到了瓶颈期,很多模型优化都难以取得进一步的效果提升。 我破局的思路就是跳出粗排这个单一模块,站在整个排序链路的视角重新思考问题。通过在离线分析发现粗排和精排的对齐程度已经很高,粗排进一步迭代空间有限。因此需要从前链路的召回入手,通过提升召回进入粗排的广告数目和质量,来进一步打开粗排的迭代空间。因此我在召回从全链路目标对齐的视角出发,做了一些技术上的创新突破,构建了一些对齐后链路目标的召回通道�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E9%98%BF%E9%87%8C%E7%AE%97%E6%B3%95%E4%B8%93%E5%AE%B6%E8%B0%88%E5%A4%A7%E8%A7%84%E6%A8%A1%E6%8E%A8%E8%8D%90%E7%B3%BB%E7%BB%9F%E7%B2%97%E6%8E%92%E5%B1%82%E7%9A%84%E8%AE%BE%E8%AE%A1%E4%B8%8E%E5%AE%9E%E7%8E%B0/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com