推 HHMoon: Autoencoder 分為encoder層&decoder層 中間的hidden layer 07/10 17:31
→ HHMoon: 是從大到小(encode)至由小到大(decode)做輸出 07/10 17:31
→ HHMoon: 最常見的就是用來作資料降維取代PCA的作法 也可以用來做影 07/10 17:32
→ HHMoon: 像去噪 語意分割等功能 07/10 17:32
推 ruokcnn: 樓上都把重點講差不多 關鍵是取中間層做降噪或降維用 07/11 15:09
→ ruokcnn: 也聽過有人拿中間層來分群..... 07/11 15:10
推 sxy67230: AE是分層兩邊,一邊做encode,另一邊做decode,所以會 07/11 21:45
→ sxy67230: 先在encode降維,decode在升維。最後我們的訓練目標期 07/11 21:45
→ sxy67230: 待input跟output差異化是最小的。 07/11 21:45
推 sxy67230: AE應用很多的,變體也很多,像是把encoder的輸出latent 07/11 21:56
→ sxy67230: 丟入gan的discriminator,把encoder視為是生成器在優 07/11 21:56
→ sxy67230: 化decoder跟discriminator,這樣輸出的模型解決了gan的 07/11 21:56
→ sxy67230: 生成器不連續的問題,讓圖像更接近真實世界。 07/11 21:56
推 sxy67230: 還有我們也可以理解出來的latent可能是代表某些參數值, 07/11 22:03
→ sxy67230: 我們加入label去做condition,訓練encoder跟label是有 07/11 22:03
→ sxy67230: 關的,結果是調整label就可以讓ae生成我們期望的輸入變 07/11 22:04
→ sxy67230: 化圖像。 07/11 22:04
→ sxy67230: 第一個應用可以去查AAE,第二個去找conditional VAE論 07/11 22:04
→ sxy67230: 文 07/11 22:04
推 sxy67230: 其實更簡單來說,我們期待透過encoder跟decoder去訓練en 07/11 22:25
→ sxy67230: coder的輸出latent其實就是資料的真正特徵,所以才有降 07/11 22:25
→ sxy67230: 維、降噪,進一步腦補資料的能力 07/11 22:25
→ benjamin1023: 感謝各位解答 小弟會再依大家給的方向去查資料 07/11 23:10