推 sma1033: 也許使用LReLU能夠得到的Model非線性程度較低,所以Model05/20 02:03
→ sma1033: 在生產類似"邊界"的東西時對比會差一點?05/20 02:04
感謝回應,我也是這樣猜,不過需要更多實驗證實
推 leoloveivy: soumith 那個tricky不是盡量都用leaky嗎 avoid sparse 05/20 17:36
→ leoloveivy: gradient05/20 17:36
→ CVPR: 對 我也是看那個trick, 可是我自己試generator也是效果不太05/21 08:03
→ CVPR: 好 05/21 08:03
→ CVPR: DCGAN原本paper就有寫用ReLU在generator效果好 05/21 08:04
→ CVPR: 不過我generator沒有加dropout ,不知道leaky加了會怎樣 05/21 08:05
※ 編輯: CVPR (223.137.38.91), 05/21/2018 08:07:10
→ Kazimir: 我自己試了一下 沒感覺relu有比leaky清楚 05/21 14:16
→ catxfish: 以前試是覺得都差不多 都不夠清晰 05/21 17:51
→ catxfish: 而且training set的品質影響很大 要花時間篩選 05/21 17:52
※ 編輯: CVPR (223.140.117.142), 05/22/2018 06:21:27