看板 DataScience 關於我們 聯絡資訊
WGAN的loss 我看paper是Discriminator去 minimize 假的output -真的output 而generator是minimize -假的output 我看我train時generator的loss都是負很大 越train負越多 請問這樣是合理的嗎? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.177.219 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526423011.A.0B2.html
bessgaga: 對,generator就是要騙discriminator給很高的分數,所以 05/16 18:51
bessgaga: 加一個負號是maximum 分數的意思 05/16 18:51
tsoahans: 有做weight clipping嗎 05/16 20:02