关于LFM的几点疑问

来源:2-6 基于LFM的用户个性化推荐与推荐结果分析

金戈大王

2019-06-06

  1. 梯度下降训练一定会收敛吗?是否有理论依据?
  2. 12分30秒处老师提到可以用训练好的item向量计算item-to-item相似度矩阵,然后用item cf的思想做推荐。但是训练过程中并没有以item-to-item的相似度作为目标,如何保证相似的item具有相似的向量?

谢谢老师~

写回答

1回答

David

2019-06-07

1.梯队下降不一定会完全收敛。在很多实战情况里,经过一些轮次迭代 会有loss震荡,这个和训练数据有关。需要清洗训练数据。 2.这里是将用户点过的物品 学的距离尽量近,也就是会将相似行为的user最终学习的向量会距离很近,既而被他们行为的物品也会距离比较近,可以做sim item。

0
1
金戈大王
在监督训练中,我们只能针对训练集的分布优化loss,使得在测试集中loss也尽量小。而这里的loss是user向量与item向量的距离,并不是item向量与item向量的距离。就好像训练了一个对猫和狗分类的神经网络,怎么能期望它也能对鸡和鸭分类呢。
2019-06-07
共1条回复

个性化推荐算法实战(可用于毕设) BAT大牛亲授

让你掌握一套完整的,能落地的个性化推荐算法体系。可用于毕设。

839 学习 · 253 问题

查看课程