Bayesian Non-Parametric for Recommendation System(非参贝叶斯在推荐系统中的应用)文献综述

 2022-10-31 11:10
  1. 文献综述(或调研报告):

1997年Resnick 和Varian给出了关于推荐系统被广泛接受的定义:“即利用电子商务网站向用户提供商品的信息,推荐用户应该购买什么样的产品,模拟销售人员帮助用户完成购买。”

推荐系统通过分析用户的历史行为给用户的兴趣建模,从而主动给用户推荐能够满足他们兴趣和需求的信息。其中最重要的一种方法是基于协同过滤(Goldberg et al. 1992)的推荐。即利用已有用户群过去的行为或意见预测当前用户最可能喜欢哪些东西或对哪些东西感兴趣。虽然协同过滤算法已经被成功地应用到许多商业推荐系统中,但是仍然存在诸如数据稀疏性、冷启动等问题有待解决。

泊松分解模型(Canny,2004; Dusonamp;Herring, 2005; Gopalan et al., 2013)的提出为推荐系统开辟了新途径。泊松分解模型定义观测值服从泊松分布,其参数为用户和物品潜在向量的乘积。相比于传统的分解模型——以高斯分布作为似然函数(Salakhutdinov amp; Mnih, 2008),泊松分解模型只需考虑非零观测值,大大提高了算法的有效性。但矩阵分解模型的局限性在于模型的选择,即如何选取模型中向量的维度k。传统的方法是带入多个k,根据预留数据的预测结果选取最优模型(Salakhutdinov amp; Mnih, 2008;Gopalan et al., 2013)但由于数据量极大,逐一尝试的方法给计算带来了很大的麻烦。

随着MCMC和变分推断方法的出现,非参贝叶斯方法在应用统计和机器学习中获得了广泛使用,其中当然也包括在推荐系统中的应用。在已有的文献中包含很多关于非参贝叶斯因子模型的重要研究。如Griffiths amp; Ghahramani (2011)介绍的IBP模型,它将高斯BNP模型赋予了二进制权重;Knowles amp; Ghahramani(2011)则将其拓展至非二进制权重。Titsias(2007)提出了BNP因子模型,它是基于Gamma-Poisson的无限模型(即k为无穷)。Zhou et al. (2012) 将上述方法进行了延伸,将模型的无限维先验拓展为Beta-Gamma-Gamma-Poisson的分层结构。Prem Gopalan et al(2014)提出了更具有一般性的无限非参贝叶斯泊松分解模型。在多数复杂的贝叶斯模型中,其计算难点在于后验分布的推导。文中采用了变分推断法(Jordan et al. , 1999)对后验分布进行估计,模型的无限性使得该算法适用于大型数据集,且对预测结果有着出色的表现。

近年来,上下文相关的推荐算法已成为推荐系统领域最为活跃的研究领域之一。这些上下文包括用户访问推荐系统的时间、地点、心情等,对于提高推荐系统的推荐效果是非常重要的。ACM(ACM conference on Recommender Systems, 简称RecSys)推荐系统年会自2009年开始举办上下文感知推荐系统专题研讨会(Workshop on Context-Aware Recommender Systems,简称CARS),更是推进了上下文感知推荐系统领域的发展。但目前,推荐系统领域的国内外综述文献主要针对传统的推荐系统,仍极少设计上下文感知推荐系统。鉴于上下文感知推荐系统的重要研究意义,我们有必要进行深入学习。

[1]Resinick P, Varian H R. Recommender Systems[J]. Communications of the ACM, 1997, 40(3):56-58

[2]Canny, J. (2004). GaP: A factor model for discrete data. In Proceedings of the 27th annual international ACM SIGIR conference on research and development in information retrieval. New York, NY, USA:ACM

[3]Dunson, D. B. , amp; Herring, A. H. (2005). Bayesian latent variable models for mixed discrete outcomes. Biostatistics,6(1),11-25

[4]Gopalan, P.. Hofman, J. M. ,amp; Blei, D. M. (2013). Scalable recommendation with Poisson factorization. arXiv preprint arXic:1311.1704.

[5]Griffiths, T. L. , amp; Ghahramani, Z. (2011). The Indian buffet process: an introduction and review. Journal of Machine Learning Research, 12, 1185-1224.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。