看板 DataScience 關於我們 聯絡資訊
我看github上面很多code好像大家幾乎都用 dropout=0.幾 有人會把他tune到小數點後3,4位嗎? 好奇專業的機器學習從業人員是怎摸做的? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.53.11 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524834751.A.7E5.html
kumitang: 一般都0.4-0.75吧 印象中 04/27 22:31
kula0000: dropout有隨機的性質在,沒必要用到很精準吧? 04/27 23:30
Rprogramming: 那如果設0.1會怎樣?介於overfitting一半嗎? 04/28 00:57
hl4: https://goo.gl/c8eu49 可以參考看看 04/28 01:44
PyTorch: 感謝 04/28 15:00
EGsux: dropout就是做一個mask在你的W上面 rand(size(W)) > p(drop 04/29 01:14
EGsux: out) 04/29 01:14
EGsux: 所以你做到三四位影響不大 10%變10.34%那種 04/29 01:15