看板 Python 關於我們 聯絡資訊
如題 embedding 應該是詞向量 那word2vec是詞向量組成的類似字典的東西 還是指組成字典的模型? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.146.85.134 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1513217066.A.5C8.html
pups003: word2vec is one of word embedding approaches 12/14 10:44
alan23273850: word2vec是把字轉成特徵向量的機制、套件、或演算 12/14 11:25
alan23273850: 法,embedding在keras裡面就只是負責轉換的一個lay 12/14 11:25
alan23273850: er 12/14 11:25
goldflower: word embedding大致上就是把文字降維的總稱 12/15 07:30
goldflower: 然後word2vec基本上就是個autoencoder降維的方式 12/15 07:31
bibo9901: word2vec 是語言模型...不是什麼autoencoder 12/15 10:19
goldflower: 樓上對 autoencoder只是一種實作方式QQ 12/15 12:43
aszx4510: 其實一樓就是解答吧 12/15 15:07
bibo9901: 不是. autoencoder 是把自己映射到自己 12/15 15:58
bibo9901: word2vec是把context映射到word 完全不一樣的東西 12/15 15:58
goldflower: 對耶幹 自己映射到自已幹嘛… 抱歉我耍白痴 把訓練 12/15 18:28
goldflower: 過程跟降維搞混了 12/15 18:28