[问题] embedding与word2vec观念厘清

楼主: ts1029 (熠星)   2017-12-14 10:04:23
如题
embedding 应该是词向量
那word2vec是词向量组成的类似字典的东西
还是指组成字典的模型?
作者: pups003 (冈本)   2017-12-14 10:44:00
word2vec is one of word embedding approaches
作者: alan23273850   2017-12-14 11:25:00
word2vec是把字转成特征向量的机制、套件、或算法,embedding在keras里面就只是负责转换的一个layer
作者: goldflower (金色小黄花)   2017-12-15 07:30:00
word embedding大致上就是把文字降维的总称然后word2vec基本上就是个autoencoder降维的方式
作者: bibo9901 (function(){})()   2017-12-15 10:19:00
word2vec 是语言模型...不是什么autoencoder
作者: goldflower (金色小黄花)   2017-12-15 12:43:00
楼上对 autoencoder只是一种实作方式QQ
作者: aszx4510 (wind)   2017-12-15 15:07:00
其实一楼就是解答吧
作者: bibo9901 (function(){})()   2017-12-15 15:58:00
不是. autoencoder 是把自己映射到自己word2vec是把context映射到word 完全不一样的东西
作者: goldflower (金色小黄花)   2017-12-15 18:28:00
对耶干 自己映射到自已干嘛… 抱歉我耍白痴 把训练过程跟降维搞混了

Links booklink

Contact Us: admin [ a t ] ucptt.com