丰富生态爱奇艺开源灵活高性能的推理系统
来源:爱奇艺技术产品团队
为弥补目前社区在生产环境可用的支持 GBDT 模型、GBDT+FM 二分类模型及 GBDT+FM 多分类模型 部署的推理系统的空白,爱奇艺设计开发了灵活、高性能的 XGBoost Serving 推理系统,并在内部多个业务落地使用。近期,爱奇艺决定将这一系统 开源,本文将详细介绍项目 开发背景、系统实践、系统特性和架构及实现 等内容。
01 系统背景及简介
2014年,Facebook首先提出了 GBDT + LR(Logistics Regression) [5] 的模型结构,利用 GBDT 自动组合特征生成新的特征向量,该特征向量再作为输入进入 LR 计算得到最后的结果,实验表明该模型结构较单独使用 GBDT 或者 LR ,能 使效果提升至少 3%。
现代推荐系统或广告系统通常会使用 高维稀疏特征 如 视频 ID 特征 等来增强模型的记忆能力,由于 GBDT 不支持高维稀疏特征,如果使用 GBDT + LR 模型结构,则不可避免地要在 LR 模型中人工做特征组合,同时模型的计算复杂度也会变高。
因此,爱奇艺内部目前 使用 FM 来替换 LR 模型部分, 该模型结构支持高维稀疏特征及自动二阶特征组合。
实验表明,GBDT + FM 模型较 GBDT + LR 模型效果提升至少 4%。
GBDT + FM 模型经过训练及评估后,需要在推理系统上线落地才能产生实际的收益。社区现有的成熟推理系统 TensorFlow Serving [6] 只支持 TenosorFlow 模型,且没有明确计划支持其它框架的模型;其它推理系统诸如 zoltar [7]、kfserving XGBoost Server [8] 等只支持单独的 GBDT 或者 FM 模型推理, 不支持多模型、多版本部署,不支持模型生命周期管理,且其非 C++ 原生实现性能较差。
因此,我们针对生产环境设计并开发了灵活、高性能的 XGBoost Serving 推理系统,支持 GBDT + FM 模型的在线推理。XGBoost Serving 是在 TensorFlow Serving 的基础上开发的,增加了 XGBoost Servable、alphaFM Servable 及 alphaFM_softmax Servable,分别用于支持纯 GBDT 模型在线推理、GBDT + FM 二分类模型在线推理及 GBDT + FM 多分类模型在线推理。
XGBoost Serving 现已在GitHub 开源,地址为: https://github.com/iqiyi/xgboost-serving。
注:GBDT(Gradient Boosted Decision Tree) [1] 是常用的机器学习算法之一,其具有较高的准确率和出色的特征组合能力。XGBoost(eXtreme Gradient Boosting) [2] 是支持 GBDT 算法的一个高性能、可扩展、分布式实现,在 Kaggle 等数据科学竞赛及企业生产环境具有广泛应用。FM(Factorization Machines) [4] 是一个支持特征交叉的机器学习算法,对稠密特征和稀疏特征均具有良好的适用性,且其推理计算复杂度呈线性,在计算广告和推荐系统的 CTR(Click Through Rate) 点击率预估环节具有广泛应用。
02 推荐中台落地 XGBoost Serving实践
XGBoost Serving具体是如何落地的?效果又如何呢?
本节先以爱奇艺推荐中台落地 GBDT + FM 二分类模型为例, 介绍如何使用 XGBoost Serving 推理系统。
在没有 XGBoost Serving 推理系统的年代,爱奇艺推荐中台在推荐引擎中支持 GBDT + FM 二分类模型部署。推荐引擎是整个推荐流程中非常复杂的一个模块,由于算法规则、深度模型、浅层模型盘根错节, 很难保证计算过程不会相互干扰;多模型、多版本的生命周期管理需要 人工介入。
有了 XGBoost Serving 推理系统后,推荐中台可以将模型部署及模型生命周期管理部分托管至 XGBoost Serving,自身聚焦于引擎业务逻辑调用。
如此一来,引擎不再需要关注模型计算部分, 且人工管理模型生命周期的日子也一去不复返了。推荐中台使用 XGBoost Serving 的流程如图1:
图1推荐中台使用 XGBoost Serving流程
推荐中台训练好 GBDT + FM 二分类模型后,指定数字版本号,并将该版本的模型放入配置的路径下,XGBoost Serving 即会根据**配置的 Servables 类型和 Version Policy ** 确定是否执行加载模型的操作。
如果模型加载成功,则 XGBoost Serving 会分别启动** GRPC 服务、HTTP 服务和 Metrics 服务。 更新模型时,只需使用新的版本号命名模型并将该版本的模型放入配置的路径下即可,XGBoost Serving 会 自动管理配置路径下的模型的生命周期。\\ 部署及更新操作可通过流水线任务流进一步自动化。
模型部署成功后,推荐中台在引擎侧使用 XGBoost Serving 提供的 GRPC 服务访问对应的模型,使用 HTTP 服务查看各模型的状态,使用 Metrics 服务监控模型的计算延时分布。
同等负载压力下,使用 XGBoost Serving 后,P99 长尾计算延时较引擎侧部署至少降低 50%。
了解了具体的落地效果后,我们再来详细了解下 XGBoost Serving的系统特性和架构 实现细节。
03 系统架构及实现
XGBoost Serving 是在 TensorFlow Serving 的基础上开发的,为了了解 XGBoost Serving 的架构及实现,首先需要了解 TensorFlow Serving 中的核心概念及架构。TensorFlow Serving 主要有以下 核心概念:
(1)Servables
Servables 是 TensorFlow Serving 中最核心的抽象,表示用来执行具体计算的对象,如 TensorFlow SavedModel。
(2) Servable Versions
1 个 Servable 可以拥有多个 Versions。TensorFlow Serving 支持同时加载多个 Servable Versions。
(3) Loaders
Loaders 负责管理 Servables 的生命周期,提供标准化的独立于具体算法或者数据的加载和卸载 Servables 的 APIs。
(4) Sources
Sources 负责发现 Servables。Sources 支持本地文件系统等任意类型的存储系统。
(5) Aspired Versions
Aspired Versions 表示一组需要加载的 Servable Versions。
(6) Managers
Managers 负责管理 Servables 的完整生命周期,包括加载 Servables、服务 Servables 及卸载 Servables。
TensorFlow Servable 的生命周期如图2:
图 2 TensorFlow Servable 生命周期
Source 监听文件系统发现新的 Servable Version 后,创建 1 个 Loader,该 Loader 包括 1 个指向文件系统中模型数据的指针。Source 通过回调函数将** Aspired Versions **传递给 Manager。
Manager 根据配置的 Version Policy 执行加载新 Version 或者卸载旧 Version 的操作。Client 通过 Manager 来访问 Servable,可以访问指定版本的 Servable 或者缺省访问最新版本的 Servable。
了解了 TensorFlow Serving 的 核心概念及架构 后,我们发现开发 XGBoost Serving 最核心的部分是开发新的 Servables 支持 GBDT + FM 二分类模型计算、GBDT + FM 多分类模型计算及纯 GBDT 模型计算,然后将新的 Servables 集成到 Model Server 中,从而对外提供服务。
XGBoost Serving 的架构如图3:
图 3 XGBoost Serving 架构
XGBoost Serving 的架构自底向上共分为 5 层:
(1) Source
(2) Servables
(3) AspiredVersionsManager
(4) Predictors
(5) Servers
Source 层通过定期 poll 文件系统中指定的路径来发现 Servables,支持配置 poll 文件系统的路径、poll 文件系统的时间间隔及 Servables 的加载策略等。
Servables 层共支持 3 种 Servables:
(1) XGBoost Servable
(2) alphaFM Servable
(3) alphaFM_softmax Servable
XGBoost Servable 支持纯 GBDT 模型的�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E4%B8%B0%E5%AF%8C%E7%94%9F%E6%80%81%E7%88%B1%E5%A5%87%E8%89%BA%E5%BC%80%E6%BA%90%E7%81%B5%E6%B4%BB%E9%AB%98%E6%80%A7%E8%83%BD%E7%9A%84%E6%8E%A8%E7%90%86%E7%B3%BB%E7%BB%9F/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com