推 a75468: 有謠言是說一個batch裡都放同一種label比較好,所以這個ca05/22 21:09
→ a75468: se就是兩個batch,128個1以及128個005/22 21:09
那好像是因為有batch normalize的關係?
→ catxfish: 通常會用相同數目的real image跟fake image去訓練05/22 22:48
→ catxfish: 直接參考的實作預設是用64+6405/22 22:50
謝謝回答,想再請問這64張假的image是在同一個training step由訓練Generator產生的128個image取64張丟進Discriminator嗎?
還是generator再重新產生64張假的image?
※ 編輯: PyTorch (114.136.86.37), 05/22/2018 23:31:57
→ catxfish: 直接亂數64個latent產生64個fake image進discriminator 05/23 00:33
→ catxfish: 不用重新產生 直接用同一組去算兩個的loss function 05/23 00:36
→ catxfish: G是64個input D是128個input 不過其實這些你都可以調整 05/23 00:38
→ catxfish: 但我以前測試最需要調整的是learning rate 05/23 00:39
→ catxfish: batch size反而還好 05/23 00:39
→ catxfish: 話說pytorch github example裡面就有DCGAN啊 XD 05/23 00:49