推 lucien0410: mini batch size 會影響acc 04/04 00:11
謝謝你的回覆
請問是batch size越大越好嗎? 我嘗試過把batch size加大
仍會有這種有時候train得起來 有時候train不起來的情況
※ 編輯: Bondrewd (36.238.128.32), 04/04/2018 00:14:21
推 lucien0410: 我的實驗 batch size128的時候 表現極差 但換成64後 04/04 00:14
→ lucien0410: 表現好超多 04/04 00:14
你的例子是batch size比較小比較好?
我以為batch size 越小越不容易收斂? random的成分越大?
是我誤會了嗎?
推 lucien0410: 我是新手小孬孬 很可能講錯 我說看看我的理解 你再跟 04/04 00:20
→ lucien0410: 別人的說法交互比較 04/04 00:20
別這麼說 , 大家都是互相討論求進步 我也是新手 謝謝你願意分享
※ 編輯: Bondrewd (36.238.128.32), 04/04/2018 00:24:56
推 lucien0410: batch size n 就是一口氣抓n個樣本 然後根據這n個樣 04/04 00:24
→ lucien0410: 本調參數 讓參數最適合這組樣本 04/04 00:24
對, 所以如果n越小 那n個樣本就比較難代表整體, 我想是這樣?
推 hl4: batchsize越小隨機的成分越大,適當的隨機性質可以讓model不 04/04 00:27
→ hl4: 容易困在平緩的地區,讓整體收斂速度快一點。印象中是這樣, 04/04 00:27
→ hl4: 有錯麻煩糾正一下XD 04/04 00:27
h大的想法跟我的一樣(握手
※ 編輯: Bondrewd (36.238.128.32), 04/04/2018 00:30:14
推 lucien0410: 感覺就像圖片的畫素一樣 大batch =低畫素 04/04 00:30
推 lucien0410: 所以n越大 越像母體 但犧牲掉隨機性質 04/04 00:38
推 lucien0410: 但我們想要 像母體 又有適當的隨機性質 兩個相斥的願 04/04 00:40
→ lucien0410: 望 04/04 00:40
推 lucien0410: 有一招oversample 你可以試試 04/04 00:42
推 lucien0410: 就是暴力的把所有樣本重複 我的實驗oversampling 後 04/04 00:45
→ lucien0410: 模組的表現也提高很多 04/04 00:45
感謝l大的撇步分享! 我試試看
※ 編輯: Bondrewd (36.238.128.32), 04/04/2018 00:53:03
推 sean50301: batch size 設小一點可以避掉local minima trap 04/04 02:43
→ followwar: 這篇有說一下batch size 04/04 02:59
推 lucien0410: 推f大的好文分享 04/04 03:11
推 hl4: 喔喔 好文好文 04/04 04:10
→ lucien0410: 白話文圖解backpropagation 和stochastic gradient 04/04 11:37
→ lucien0410: descent 推薦給入門的版友 (可是是英文講解) 04/04 11:38
→ ssd860505da: 不同的問題適合不一樣的batch size大小 04/05 02:00
推 geminitw: 你有在每個epoch 重新隨機重排你的batch 嗎? 04/05 07:07
→ Bondrewd: 有 04/05 13:44