推荐相关文章

1.当推荐系统邂逅深度学习(重点推荐)

链接:https://mp.weixin.qq.com/s/wLfK1920tcbT3AkfYduXtA
摘要:本文围绕深度学习技术在推荐系统方面的研究展开介绍,首先介绍推荐系统的相关内容以及面临的主要挑战,然后介绍目前主流的解决方案以及应用深度学习技术的必要性;第二节介绍深度学习技术的相关概念以及它的适用场景及限制条件;最后总结深度学习技术与推荐系统相结合的具体案例,希望对大家有所帮助。

2.注意力机制在推荐系统应用中的总结(推荐)

链接:https://mp.weixin.qq.com/s/iUS-GDZXNJRaNw4tyscHVA
摘要:注意力机制(attention)可以高效的提取文本中的重点,近几年在NLP领域任务中取得了令人侧目的效果,并涌现出了一大批利用attention提高推荐系统性能的研究工作。将attention运用在推荐系统,大多数是从文本数据的处理出发,利用attention提取文本中的重点进行下游任务,如阿里巴巴的DIN[1],少数是利用了attention能够自动的发现输入特征的重点的这一特性,来优化传统的推荐模型,典型的工作比如注意力分解机(AFM)[2]。

本文首先介绍了所需的背景知识,然后对近年来结合attention的推荐模型进行了综述。根据现有工作的启发,本文还提出了如何利用attention来优化微软新闻推荐模型DRN[3]。最后,我们对现有的工作进行了总结,并讨论了结合attention的推荐模型的可行的研究方向。

3.一文尽览推荐系统模型演变史(参考)

链接:https://mp.weixin.qq.com/s/Rqz9yuSxpx_os54FrzyMqQ
摘要:

  1. 本次整理方式为时间线的形式,未来可能从其他视角和维度进行整理。
  2. 整理此文的目的是给大家一个清晰的脉络,可当作一篇小小综述。从信息过载概念的提出到推荐系统的起源,从前深度学习时代的推荐系统到劲头正热的深度推荐系统,再到最后对于深度学习技术带来的推荐系统性能提升的质疑,每个阶段都是必不可少的。


    4.利用对抗技术来权衡推荐精度与用户隐私(参考)

    链接:https://mp.weixin.qq.com/s/ueI0quv4W5M9KGPYxVgA_Q
    摘要:任何需要做两方权衡并且最终寻求一种平衡的问题其实都可以转化为对抗学习的范式,比如图像生成任务中既要保证生成图片的质量又要确保判别器的识别精度;推荐任务中既要保证用户的隐私不受侵害又要确保推荐质量的可靠。

5.图神经网络 +推荐(GNN+RS)(最新文章,推荐)

链接:https://mp.weixin.qq.com/s/qVw3oVRaay8MP2Rgo9CLyw
摘要:文章主要方向为

  • 捆绑推荐
  • Disentangled GCF
  • 服装推荐
  • 多行为推荐
  • 全局属性GNN

6.知识蒸馏在推荐系统中的应用(推荐)

链接:https://mp.weixin.qq.com/s/1ONJJYvCa6Cl9vT-mNU-_w
摘要:随着深度学习的快速发展,优秀的模型层出不穷,比如图像领域的ResNet、自然语言处理领域的Bert,这些革命性的新技术使得应用效果快速提升。但是,好的模型性能并非无代价的,你会发现,深度学习模型正在变得越来越复杂,网络深度越来越深,模型参数量也在变得越来越多。而这会带来一个现实应用的问题:将这种复杂模型推上线,模型响应速度太慢,当流量大的时候撑不住。

知识蒸馏就是目前一种比较流行的解决此类问题的技术方向。一般知识蒸馏采取Teacher-Student模式:将复杂模型作为Teacher,Student模型结构较为简单,用Teacher来辅助Student模型的训练,Teacher学习能力强,可以将它学到的暗知识(Dark Knowledge)迁移给学习能力相对弱的Student模型,以此来增强Student模型的泛化能力。复杂笨重但是效果好的Teacher模型不上线,就单纯是个导师角色,真正上战场挡抢撑流量的是灵活轻巧的Student小模型。比如Bert,因为太重,很难直接上线跑,目前很多公司都是采取知识蒸馏的方法,学会一个轻巧,但是因为被Teacher教导过,所以效果也很好的Student模型部署上线。

非推荐直接相关文章

1.多任务学习方法在推荐中的演变

链接:https://mp.weixin.qq.com/s/ifTNRW0W7-P_LyfNldtavQ
摘要:多任务学习本质是一种归纳迁移机制,利用额外的信息来源来提高当前任务的学习性能,包括提高泛化准确率、学习速率和已学习模型的可理解性。多任务学习的不同任务在共享层里的局部极小值位置是不同的,通过多任务之间不相关的部分的相互作用,有助于逃离局部极小值点;而多任务之前相关的部分则有利于底部共享层对通用特征表示的学习,因此通常多任务能够取得比单任务模型更好的效果。多任务学习未来的发展可能会出现更多新的思路或者是现有的思路相结合,后者在业内已有一些研究,比如阿里发表在KDD2020的M2GRL:引入多视图后的GRL与MTL框架结合来更好地进行推荐。另外多任务中的损失函数设计也是一个很重要的研究方向,将另外展开叙述。

2.一文搞懂序列推荐中的神器LSTM

链接:https://mp.weixin.qq.com/s/ueI0quv4W5M9KGPYxVgA_Q
摘要:最近在学习LSTM应用在时间序列的预测上,但是遇到一个很大的问题就是LSTM在传统BP网络上加上时间步后,其结构就很难理解了,同时其输入输出数据格式也很难理解,网络上有很多介绍LSTM结构的文章,但是都不直观,对初学者是非常不友好的。我也是苦苦冥思很久,看了很多资料和网友分享的LSTM结构图形才明白其中的玄机。

3.对话中的情感分析与生成简述(最新)

链接:https://mp.weixin.qq.com/s/9mVrqex2CYrLD3b7ie5NKA
摘要:本文主要介绍对话情感中的两个关键任务:对话情绪识别、对话情感生成,梳理了这两个任务常用的数据集和相关方法。本文在接下来的部分首先阐述对话情绪识别任务的相关内容;接着围绕对话情感生成任务展开介绍;最后是全文总结和对未来的展望。