看板 DataScience 關於我們 聯絡資訊
請教在convolution layer 的dropout的方式是? 例如假設那層是64個(4,4) filter 那如果dropout設0.5 那是代表? 1. 64個filter隨機丟掉32個filter? 還是 2. 每個filter中的16個pixel隨機丟掉8個pixel? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.4.190 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524987365.A.D4F.html
chchan1111: DROPOUT丟棄的機率是以單顆神經元來看的歐 04/29 16:05
chchan1111: 所以嚴格來說應該是每張feature maps 的每個pixel 04/29 16:06
chchan1111: 都有一半的機率訊息不會被往下傳遞 04/29 16:06
Haikyuu: 謝謝你,所以我可以理解為所有feature map都會被保留,但 04/29 18:49
Haikyuu: 是每個feature map都有缺角或挖空對嗎? 04/29 18:49
chchan1111: 是的 在dnn裡加dropout相當於每個神經元有一定機率被 04/29 21:06
chchan1111: 忽略 而cnn中每個pixel就相當於神經元 04/29 21:06
chchan1111: 另外feature maps跟filter是不一樣的歐 04/29 21:08
Haikyuu: 謝謝你, feature map應該就是filter的輸出吧? 04/30 15:32