看板 DataScience 關於我們 聯絡資訊
小弟最近在看NN的演算法 看到了autoencoder的介紹 有說到autoencoder可以幫忙做neuron的權重初始化 但是autoencoder 又只能輸出跟input一樣多的維度 這樣用autoencoder 的話中間的hidden layer就一定要跟input一樣了 這樣會有什麼壞處 嗎 Autoencoder在應用上還有什麼好處嗎? 感謝各位大大解惑 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.5.136 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1562738914.A.B61.html
HHMoon: Autoencoder 分為encoder層&decoder層 中間的hidden layer 07/10 17:31
HHMoon: 是從大到小(encode)至由小到大(decode)做輸出 07/10 17:31
HHMoon: 最常見的就是用來作資料降維取代PCA的作法 也可以用來做影 07/10 17:32
HHMoon: 像去噪 語意分割等功能 07/10 17:32
ruokcnn: 樓上都把重點講差不多 關鍵是取中間層做降噪或降維用 07/11 15:09
ruokcnn: 也聽過有人拿中間層來分群..... 07/11 15:10
sxy67230: AE是分層兩邊,一邊做encode,另一邊做decode,所以會 07/11 21:45
sxy67230: 先在encode降維,decode在升維。最後我們的訓練目標期 07/11 21:45
sxy67230: 待input跟output差異化是最小的。 07/11 21:45
sxy67230: AE應用很多的,變體也很多,像是把encoder的輸出latent 07/11 21:56
sxy67230: 丟入gan的discriminator,把encoder視為是生成器在優 07/11 21:56
sxy67230: 化decoder跟discriminator,這樣輸出的模型解決了gan的 07/11 21:56
sxy67230: 生成器不連續的問題,讓圖像更接近真實世界。 07/11 21:56
sxy67230: 還有我們也可以理解出來的latent可能是代表某些參數值, 07/11 22:03
sxy67230: 我們加入label去做condition,訓練encoder跟label是有 07/11 22:03
sxy67230: 關的,結果是調整label就可以讓ae生成我們期望的輸入變 07/11 22:04
sxy67230: 化圖像。 07/11 22:04
sxy67230: 第一個應用可以去查AAE,第二個去找conditional VAE論 07/11 22:04
sxy67230: 文 07/11 22:04
sxy67230: 其實更簡單來說,我們期待透過encoder跟decoder去訓練en 07/11 22:25
sxy67230: coder的輸出latent其實就是資料的真正特徵,所以才有降 07/11 22:25
sxy67230: 維、降噪,進一步腦補資料的能力 07/11 22:25
benjamin1023: 感謝各位解答 小弟會再依大家給的方向去查資料 07/11 23:10