推荐系统案例:小红书的底层逻辑
一、小红书用户隐私政策
收集和使用的个人信息
根据收集的用户个人信息,我们可以发现小红书的业务模式始终是基于内容进行过滤、检索的信息流生活平台,在这一平台上生活美妆是其主题。
二、小红书内容推荐模型
工业界常见的推荐模型一般包括特征服务、索引、召回、粗排、精排、重排、样式创意等环节,我将基于此对小红书的推荐模型逻辑进行拆解。
1. 特征服务与物料索引
在“设置-我的内容偏好”中,我们可以发现“为我们推荐可能感兴趣的内容”,其中如“狗狗日常”、“艺术绘画”便是平台所使用的用户特征、物料特征、情景特征。
此外,平台内部还有不对C端公开的细化标签,比如“狗狗日常”的“京巴”与“藏獒”便会被推送到不同用户界面处。平台基于这些物料特征为物料进行预训练、打标,以供后续召回、排序等环节的使用。
2. 召回模型:Item-CF算法与双塔模型
小红书主要采用Item-CF算法类似的逻辑,然而这一算法普遍存在以下表征:
- 核心问题:如何计算物料与物料之间、用户与用户之间的相似度。
- 优点:算法逻辑较简单,容易实现,同时又有不错的效果,具备一定的个性化。
- 缺点:与规则召回缺点方向一致,冷启动问题明显,存在一定的马太效应,头部热门问题易与其他产生关联。
为解决用户冷启动问题,以小红书为代表的内容消费平台采用双塔模型的思想,在召回阶段中往往会增加一路使用内容多模态表征的i2i召回进行优化,这路召回由于只使用了纯内容的特征,和老物品便可以公平比较,不会产生因为新物品后验行为少而导致无法被召回的问题,近期引入了LLM对i2i召回进行优化。
在现有的多模态i2i召回方法,在文本侧一般都是用一个BERT经过预训练后生成embedding然后基于embedding的相似度来进行召回,但是这样可能也会存在一些问题:
- BERT表征能力不足。仅使用Bert生成的embedding只能代表文本的语义信息,和下游推荐任务的目标存在一定的不一致
- 标签类别信息重点程度不足。一篇图文笔记的标签和类别往往代表他的中心思想,对于确定两个笔记是否相关至关重要,但现有的Bert方法只是将标签和类别视为内容的一个组成部分。
小红书发现使用笔记内容生成标签和类别的过程和生成笔记的embedding十分类似,都是讲笔记的关键信息压缩成有限的内容,因此引入一个生成标签和类别的任务可能会提升最终embedding的质量,因此设计了3个方法:
- 笔记压缩prompt构建
- 生成式对比学习(Generative-Contrastive Learning)
- 协同监督微调(Collaborative Supervised Fine-Tuning)
笔记压缩prompt构建用来定义模型在训练时的输入,生成式对比学习和协同监督微调分别对应两个预训练任务,前者引入了推荐中的协同过滤信号作为标签进行对比学习来训练更好的文本表征,后者其实就是根据笔记内容来生成对应的标签和类别,以此强化embedding的可用性,结果表明将LLM引入i2i推荐任务可以提高推荐性能和用户体验。
此外,还观察到单日对新笔记的评论数量显着增加了3.58%。这表明LLM的引入有利于冷启动。NoteLLM最终推全上线。
3. 排序策略
3.1. 粗排策略
行业内普遍采用基于模型的粗排策略。使用DNN模型构建CTR预估模型,并进行离线AUC指标评估与线上AB Test测试。
3.2. 精排策略
在内容推荐场景,对于内容推荐平台如小红书等来说其核心的业务指标是DAU、互动率。小红书采用GBDT Sparse D&W的模型算法通过构建click、hide、like、fav、comment、share、follow等模型特征来进行模型训练,并输出训练结果,即CES评分=点赞数×1分 收藏数×1分 评论数×4分 转发数×4分 关注数×8分。
3.3. 重排策略
3.3.1. 全局最优的排序策略
一个界面里有四个帖子,很明显小红书采用的是序列优化策略,会根据我点击物料的行为进行排序,最终排出我最喜欢的东西,你会发现实习求职多数在上面,大多在左上角哦!
3.3.2. 基于用户体验的策略调整
一个界面里有四个帖子,很明显小红书采用的是全局最优策略,在这一策略中,我们发现图片、品类、作者都是各不相同的,品类也各有不同。但是由于作者酷爱小猫与苦寻实习,所以每次的推荐页面均有小猫与实习职业相关内容。
3.3.3. 适当的流量调控
流量调控策略只有一种,即直接在重排层针对这部分物料进行相应权重的调整,例如小红书的蒲公英平台、特定活动的流量扶持计划便是流量调控的一种表现形式。
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!