推 st1009: 可以用新資料繼續train 05/09 17:21
→ st1009: 要改的話,可以選則重train或把以前的當pre-train model 05/09 17:22
→ truehero: 如果你的訓練集都是一樣重要 應該把它視為一個訓練集 05/09 23:58
→ truehero: 依次TRAIN好 , 之後如有新資料FINETUNE 當成另一件事 05/09 23:58
→ truehero: 照你的做法, 如果不freeze weight ,二號會蓋掉一號 05/10 00:02
推 world4jason: 我覺得你是不是有點不懂訓練還有fine tune 05/10 00:39
→ maple60107: 感謝大家的回覆 05/10 09:18
→ maple60107: 我確實不太懂 05/10 09:18
→ maple60107: 我查了兩樣東西 05/10 09:18
→ maple60107: 不知道是不是對的 05/10 09:18
→ maple60107: train on batch 05/10 09:18
→ maple60107: transfer learning 05/10 09:18
推 st1009: batch跟你要做的比較接近 05/10 09:58
推 st1009: transfer是用在目標資料太少,所以用非domain的資料輔助 05/10 09:59
推 OnePiecePR: 聽三樓的話,一起 train 05/10 18:36
推 OnePiecePR: 資料太多,有 min batch 擋住,其他乖乖耐心等。 05/10 18:37
推 zxp9505007: 如果沒有把上一次最後的lr記下來 跑新資料會蓋掉 05/14 19:35
→ zxp9505007: 丟在一起練是最好的 然後把train batch弄小 再來就是 05/14 19:36
→ zxp9505007: 耐心 慢慢tune網路 05/14 19:36