→ chang1248w: arXiv:1802.0494212/01 17:47
→ chang1248w: 你的理解中,MI分析的對象是?12/01 17:49
Image vs latent code
※ 編輯: lifeowner (223.137.22.220 臺灣), 12/01/2022 18:17:42
→ chang1248w: infogan的思路建立在latent code本身就是distangled 12/02 14:52
→ chang1248w: 然後MI reg的部分則是強迫gan啟用latent code的訊息 12/02 14:54
→ chang1248w: MI(X, Y) = KL(p(x,y)||p(x)p(y)) has maximum when 12/02 15:24
→ chang1248w: 痾 minimum... when p(x,y)=p(x)p(y) 12/02 15:28
→ chang1248w: 這種情況下代表generator output 和latent code完全沒 12/02 15:29
→ chang1248w: 關係 12/02 15:30
→ chang1248w: 另外直覺上VAE的latent nodes才會minimize彼此之間的 12/02 15:33
→ chang1248w: MI 12/02 15:34
→ truehero: arxiv 1811.12359v4 12/04 23:19
→ pups003: 應該不是chang說的那樣 論文裡是寫MI maximization 02/15 23:39
→ pups003: 我的理解是,並不是maximizing MI->disentangled 02/15 23:39
→ pups003: 而是用了categorical code 02/15 23:42
→ pups003: MI max一般用在latent跟output上是用來減緩mode collapse 02/15 23:43