前排留名。等了好久终于等到了LDA。
为同学们节约搜索时间,plsa的连接如下
http://cs.brown.edu/~th/papers/Hofmann-UAI99.pdf
Blei的LDA也有简单的review PLSA,unigram model
http://www.cs.princeton.edu/~blei/papers/BleiNgJordan2003.pdf
08年Blei同学来了次回锅肉,把lda改进改进。在LDA里,topic之间是独立的,但是有时候应该是有影响的;所以,换另一个先验分布
http://www.cs.cmu.edu/~lafferty/pub/ctm.pdf
这几篇和LDA相关的文章写得确实是太好了,简单易懂!!!
2 个月 后
这5篇文章的系列实在太好了 支持作者 我仔细拜读
6 天 后
有朝一日希望老师介绍一下topicmodels包里的VEM方法和CTM方法~
1 个月 后
请问 为什么 α→θm 对应于 Dirichlet 分布?在5.2中的alpha和beta的向量分别代表什么意义呢?
10 天 后
3 个月 后
3 年 后
其实还有一本书对LDA写的更好更系统,还讲了其他资料没有的“变分推断”,这本书叫《LDA漫游指南》,http://yuedu.baidu.com/ebook/d0b441a8ccbff121dd36839a
这位作者写的非常艰辛,放在百度阅读上供大家分享给大家阅读。希望楼主文章中提及,不要抹杀其他作者的辛勤工作
[未知用户] 其实还有一本书对LDA写的也很好更系统,还讲了其他资料没有的“变分推断”,这本书叫《LDA漫游指南》,希望能对你有用
[未知用户] 其实还有一本书对LDA写的更好更系统,还讲了其他资料没有的“变分推断”,这本书叫《LDA漫游指南》,http://yuedu.baidu.com/ebook/d0b441a8ccbff121dd36839a
这位作者写的非常艰辛,放在百度阅读上供大家分享给大家阅读。你也可以去看看,希望对你有帮助
10 天 后
LDA训练得到的模型参数,在inference的时候是怎么使用的?从Algorithm 7来看,好像inference过程没用到前面训练出来的topic-word频率矩阵。
LDA训练得到的模型参数在inference的时候是怎么使用的?从Algorithm 7来看,inference过程貌似没有用到前面训练得到的topic-word共现频率矩阵。
4 个月 后
写!得!太!好!了!最好的中文lda材料没有之一!就是数学基础不太好,有些推导没看懂....