楼主:
ts1029 (熠星)
2017-12-14 10:04:23如题
embedding 应该是词向量
那word2vec是词向量组成的类似字典的东西
还是指组成字典的模型?
作者:
pups003 (冈本)
2017-12-14 10:44:00word2vec is one of word embedding approaches
word2vec是把字转成特征向量的机制、套件、或算法,embedding在keras里面就只是负责转换的一个layer
word embedding大致上就是把文字降维的总称然后word2vec基本上就是个autoencoder降维的方式
作者:
bibo9901 (function(){})()
2017-12-15 10:19:00word2vec 是语言模型...不是什么autoencoder
楼上对 autoencoder只是一种实作方式QQ
作者:
bibo9901 (function(){})()
2017-12-15 15:58:00不是. autoencoder 是把自己映射到自己word2vec是把context映射到word 完全不一样的东西
对耶干 自己映射到自已干嘛… 抱歉我耍白痴 把训练过程跟降维搞混了