看板 DataScience 關於我們 聯絡資訊
大家好,小弟近來在研究vae時想到一個問題,我們都知道vae是一個unsupervise的問題,他最大的特點在於他利用了一個gaussian distribution來model embedding layer的行為。 在訓練的時候,透過encoder的機制 可以提供不同的mean 和 variance,因此實際上他embedding layer的gaussian 或許應該說是一個GMM的形式。 我想請問的是,為何最後在做生成使用之時,他可以單單使用一個N(0,I)的gaussian來做生成呢? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.113.65.125 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1525184693.A.F90.html
lucien0410: 什麼是vae 05/02 01:16
tsoahans: 就是要讓他有隨機性吧 不然每次都會生出一樣照片 05/02 01:25
tsoahans: 如果你是想問為什麼只用高斯,我想單純只是比較好解 05/02 01:42
tsoahans: 也有人用Gaussian mixture取代N(0,I) 05/02 01:42
seasa2016: 我後來想通了 感謝 05/02 10:30
shortid: 你484在寫lab4 05/02 22:50
johnny8376: 我猜是vairational autoencoder 05/04 06:32