→ Mchord: Discriminator失效之後你Generator的結果就會很詭異,一 07/27 22:36
→ Mchord: 般從loss也能看出來 07/27 22:36
推 OnePiecePR: D overfitting, 會不會是對初期 G 的訓練還 OK, 但是 07/28 02:20
→ OnePiecePR: 到了最後 G 有能力產生不錯的輸出時會被拉到跟看過的 07/28 02:20
→ OnePiecePR: real data 幾乎一樣,少了 “想像力”? 如果 D 不 07/28 02:20
→ OnePiecePR: 難 train, 加上 dropout 應該是有幫住的。 07/28 02:20
推 seasa2016: 挺好奇的 gan的想像力是指什麼呢 07/28 02:25
→ Mchord: 實際一點來說,在G能生成足夠真實的圖之前D就依特定少量fe 07/28 06:36
→ Mchord: ature能判別real跟fake的話,G基本上就會直接往生成該feat 07/28 06:36
→ Mchord: ure的方向前進 07/28 06:36
→ Mchord: 關鍵字請搜尋mode collapse,原則上只有數學,沒有所謂想 07/28 06:40
→ Mchord: 像力 07/28 06:40
→ seasa2016: 嗯嗯 我知道mode collapse 只是我覺得gan還是畫不出資 07/28 09:36
→ seasa2016: 料中沒有的東西 所以想像力用的挺妙的? 07/28 09:36
→ atrix: 函數隨機產生的雜訊經過多次分類器訓練,能夠把產生雜訊的 07/28 18:12
→ atrix: 分佈限定在我們想要的範圍內。 07/28 18:13
→ atrix: (我的理解是這樣,請問有錯嗎?) 07/28 18:14
推 yiefaung: 應該說mapping到一個包含real data的space裡 07/28 20:22