看板 DataScience 關於我們 聯絡資訊
如題 小弟最近在練習train CNN 關於early stopping的時機 想跟大家討論一下 自己覺得有4個可能的點 1. validation loss 不顯著下降的時候: 有時候validation loss不下降但validation accuracy仍繼續上升,不確定是否該停,反之亦然,我認為這是因為較低的validation loss不一定對應較高的validation accuracy (假設loss用cross entropy的時候) 2. validation accuracy不顯著上升的時候: 這個點感覺最有說服力,但也要考慮到 validation set 一般切不會太大,無法很有效代表test set, accuracy也有可能會飄來飄去的 3. training accuracy >> validation accuracy: 這是我同學認為的,他覺得 training accuracy 大於validation accuracy就overfitting了 再train下去沒用 例如training accuracy 75% 但validation accuracy只有65% 就應該停下來了 4. training loss不繼續下降的時候: 這個點一般要等最久,early stopping效果不顯著 而且可能早就已經overfitting了 小弟才疏學淺,還請各位先進能不吝指點 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 119.14.44.99 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524461699.A.5CA.html
jackwang01: 我覺得是1,看validation loss 04/23 14:03
truehero: 就12 ,case by case 04/23 20:53
bessgaga: 通常是1 04/23 22:16
bibo9901: 4就是收斂了,哪來early stopping 04/24 04:37
s1681688: 我都用2 04/24 17:49
mk99: 我也投2 04/24 18:22
DreamRecord: 我會選擇1 04/24 23:56
DreamRecord: accuracy要看你所選擇的measure會不會亂飄, 04/24 23:56
DreamRecord: 有可能這個epoch很差下個epoch又突然變好, 04/24 23:56
DreamRecord: 結果你在這個epoch就early stop了。 04/24 23:57
DreamRecord: loss是反應objective有沒有學好最直接的指標, 04/24 23:57
DreamRecord: 相對比較穩定。 04/24 23:57
DreamRecord: https://bit.ly/2Hr6oLg 04/24 23:58
howie7155: 要看狀況,同意樓上的,另外我覺得如果第3已經是常態了 05/02 10:20
howie7155: 話,本來就要停止,只是感覺應該不算early stopping 05/02 10:20
howie7155: 的範疇 05/02 10:20