首页
登录 | 注册

17.LDA与word2vec区别

LDA涉及到的数据知识不是一般的多,这里不做详细阐述,可参考如下博客:https://blog.csdn.net/v_july_v/article/details/41209515

总的来说LDA与word2vec区别如下:

区别 LDA word2vec
输出 文档-主题概率分布矩阵和主题-词概率分布矩阵 词对应的词向量
训练方法 利用文档中单词的贡献关系来对单词按主题聚类,也可以理解为对“文档-单词”进行矩阵分解(有点像ALS,即将N*M矩阵分解维 N*K 和 K*M两个矩阵,K为主题个数) 构建N维词向量,根据上下文输入,利用三层网络,训练得到各层之间的系数矩阵,进而得到隐藏层K维词向量
用处 可以找到词与主题,主题与文档之间的关系 可以找到词与词之间的相似度

对于用处 ,举一个例子:

词:馒头、米饭、白菜 用word2vec看相似度都较高(都是食物,可能同时会出现在“我爱吃_”这个语境),但是word2vec看出馒头、米饭会比馒头、白菜详细性高(因为前两者可能更经常出现在"我爱吃的主食有_"里),对与LDA,大部分情况下他们都会被分到同一主题(食物)中,但是也许根据K维度高一些也能区别出主食和菜,但准确行感觉不如word2vec

文档:给定几个文档,让比较文档的相似性,用word2vec比较棘手,因为只能知道每个词的word2vec词向量,但是并不知道整片文章的含义(主题),而LDA能很好的提取文章主题,进而计算相似性。

总的来说word2vec和LDA各有优缺点,适合不一样的场景



2020 jeepxie.net webmaster#jeepxie.net
10 q. 0.009 s.
京ICP备10005923号