看板 DataScience 關於我們 聯絡資訊
我最近新手上路實作GAN,採用的架構是DCGAN paper寫DCGAN訓練時batch size 128 我不是很明白batch size在送進discriminator訓練時怎麼做? 例如是128個亂數送進generator產生128張圖片 再加上128張真實的圖片送進discriminator 嗎? 這樣一次完整訓練裡面, 總共是256張圖片送進discriminator訓練 但只有128張圖片送進generator訓練嗎? 對於GAN,我不是很明白,先謝謝各位的幫忙 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.0.182 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526988928.A.4CA.html
a75468: 有謠言是說一個batch裡都放同一種label比較好,所以這個ca05/22 21:09
a75468: se就是兩個batch,128個1以及128個005/22 21:09
那好像是因為有batch normalize的關係?
catxfish: 通常會用相同數目的real image跟fake image去訓練05/22 22:48
catxfish: 直接參考的實作預設是用64+6405/22 22:50
謝謝回答,想再請問這64張假的image是在同一個training step由訓練Generator產生的128個image取64張丟進Discriminator嗎? 還是generator再重新產生64張假的image? ※ 編輯: PyTorch (114.136.86.37), 05/22/2018 23:31:57
catxfish: 直接亂數64個latent產生64個fake image進discriminator 05/23 00:33
catxfish: 不用重新產生 直接用同一組去算兩個的loss function 05/23 00:36
catxfish: G是64個input D是128個input 不過其實這些你都可以調整 05/23 00:38
catxfish: 但我以前測試最需要調整的是learning rate 05/23 00:39
catxfish: batch size反而還好 05/23 00:39
catxfish: 話說pytorch github example裡面就有DCGAN啊 XD 05/23 00:49