看板 DataScience 關於我們 聯絡資訊
作業系統:(ex:mac,win10,win8,win7,linux,etc...) 問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) GAN generative adversail networks 使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) keras 問題內容: 之前有看過WGAN的discriminator要train 5次 相比generator只train一次 當初是想說WGAN的discriminator本來就被弱化 所以train比較多次合理 但是我翻Goodfellow那篇原本GAN的paper裡面就有寫道discrimintor可以train比generat 多次 這我就不懂了, discriminator原本就容易因為train太好導致gradient vanish讓generator 學不起來 還反而要train discriminator比較多次? 這樣不是更容易把discrimintor train到acc 100% ? 有沒有人可以指點一下其中的原因 謝謝各位 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.25.100 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1535107838.A.644.html
Mchord: 經驗法則,先試出效果,再想道理解釋,GAN的基本套路 08/24 22:31
InvincibleK: 我看過train 10次的... 08/31 08:11
Activation: 因為Discriminator的learning rate比較低吧,所以要tr 09/05 21:37
Activation: ain比較多次,科學的說法可能是Discriminator的loss s 09/05 21:37
Activation: urface比較崎嶇起伏 09/05 21:37
yoyololicon: D的learning rate比較低??不是都隨便設的ㄇ 09/05 23:31
Activation: 我看github上都是D的lr比G低耶,可能我看得不夠多 09/05 23:53
Activation: 不過周遭同學也是把D設比較低才train起來 09/05 23:54