→ kumitang: 一般都0.4-0.75吧 印象中 04/27 22:31
推 kula0000: dropout有隨機的性質在,沒必要用到很精準吧? 04/27 23:30
→ Rprogramming: 那如果設0.1會怎樣?介於overfitting一半嗎? 04/28 00:57
→ PyTorch: 感謝 04/28 15:00
推 EGsux: dropout就是做一個mask在你的W上面 rand(size(W)) > p(drop 04/29 01:14
→ EGsux: out) 04/29 01:14
→ EGsux: 所以你做到三四位影響不大 10%變10.34%那種 04/29 01:15