看板 DataScience 關於我們 聯絡資訊
最近想到一個問題 如果GAN的Discriminator前面用convolution後面用fully connected dense layer, 那後面要加dropout嗎? 如果不加,FC layer很容易overfitting 可是Discriminator如果overfitting會造成GAN怎樣? 一時想不通 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.72.70 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1532696394.A.4C0.html
Mchord: Discriminator失效之後你Generator的結果就會很詭異,一 07/27 22:36
Mchord: 般從loss也能看出來 07/27 22:36
OnePiecePR: D overfitting, 會不會是對初期 G 的訓練還 OK, 但是 07/28 02:20
OnePiecePR: 到了最後 G 有能力產生不錯的輸出時會被拉到跟看過的 07/28 02:20
OnePiecePR: real data 幾乎一樣,少了 “想像力”? 如果 D 不 07/28 02:20
OnePiecePR: 難 train, 加上 dropout 應該是有幫住的。 07/28 02:20
seasa2016: 挺好奇的 gan的想像力是指什麼呢 07/28 02:25
Mchord: 實際一點來說,在G能生成足夠真實的圖之前D就依特定少量fe 07/28 06:36
Mchord: ature能判別real跟fake的話,G基本上就會直接往生成該feat 07/28 06:36
Mchord: ure的方向前進 07/28 06:36
Mchord: 關鍵字請搜尋mode collapse,原則上只有數學,沒有所謂想 07/28 06:40
Mchord: 像力 07/28 06:40
seasa2016: 嗯嗯 我知道mode collapse 只是我覺得gan還是畫不出資 07/28 09:36
seasa2016: 料中沒有的東西 所以想像力用的挺妙的? 07/28 09:36
atrix: 函數隨機產生的雜訊經過多次分類器訓練,能夠把產生雜訊的 07/28 18:12
atrix: 分佈限定在我們想要的範圍內。 07/28 18:13
atrix: (我的理解是這樣,請問有錯嗎?) 07/28 18:14
yiefaung: 應該說mapping到一個包含real data的space裡 07/28 20:22