LFM 的进一步理解
- 我们可以认为,用户之所以给电影打出这样的分数,是有内在原因的,我们可以挖掘出影响用户打分的隐藏因素,进而根据未评分电影与这些隐藏因素的关联度,决定此未评分电影的预测评分
- 应该有一些隐藏的因素,影响用户的打分,比如电影:演员、题材、年代…甚至不一定是人直接可以理解的隐藏因子
- 找到隐藏因子,可以对 user 和 item 进行关联(找到是由于什么使得 user 喜欢/不喜欢此 item,什么会决定 user 喜欢/不喜欢此 item),就可以推测用户是否会喜欢某一部未看过的电影
- 对于用户看过的电影,会有相应的打分,但一个用户不可能看过所有电影,对于用户没有看过的电影是没有评分的,因此用户评分矩阵大部分项都是空的,是一个稀疏矩阵
- 如果我们能够根据用户给已有电影的打分推测出用户会给没有看过的电影的打分,那么就可以根据预测结果给用户推荐他可能打高分的电影
矩阵因子分解
- 我们现在来做一个一般性的分析
- 一个 m×n 的打分矩阵 R 可以用两个小矩阵 Pm×k 和 Qk×n 的乘积 R̂ 来近似:
- 得到 Pm×k 和 Qk×n 的乘积 R̂ 不再是稀疏的,之前 R 中没有的项也可以由 P、Q 的乘积算出,这就得到了一个 预测评分矩阵
- 如果得到的预测评分矩阵 R̂ 与原评分矩阵 R 在已知评分位置上的值都近似,那么我们认为它们在预测位置上的值也是近似的
想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习。
上一篇: 大数据培训技术隐语义模型(LFM)
下一篇: 大数据培训技术模型的求解 —损失函数