→ chang1248w: 就是被洗掉了不用懷疑 02/07 00:43
那有沒有方法可以避免被洗掉呢?
※ 編輯: karco (140.113.226.153 臺灣), 02/07/2020 00:44:44
→ chang1248w: 要嘛就打散一起學,不然就切成三個分辨器,先分AB再 02/07 00:45
→ chang1248w: 分細項 02/07 00:45
→ chang1248w: 數據集夠大抽出一部分也會有足夠的代表性 02/07 00:50
→ roccqqck: 原資料也一起學 02/07 01:25
→ youngman77: continual learning, catastrophic forgetting 02/07 11:29
→ youngman77: lifelong learning; these tags may help 02/07 11:30
推 sxy67230: 基本上就是被洗掉了,你可以想像transfer learning就是 02/07 12:42
→ sxy67230: 在既有有限的空間上去學習新的任務。如果新的任務學好了 02/07 12:42
→ sxy67230: ,那就很容易遺忘掉舊有的內容。想要做到不會遺忘可以 02/07 12:43
→ sxy67230: 考慮EWC、GEM、progressive network,比較新的研究還有D 02/07 12:43
→ sxy67230: ynamically expandable network。或是直接拿舊有資料混 02/07 12:43
→ sxy67230: 合去train、或是考慮到記憶體可以去train 一個generativ 02/07 12:43
→ sxy67230: e model來生成舊資料再去train。如果任務不複雜,也可以 02/07 12:43
→ sxy67230: 考慮把A、B task順序調換可能就有不錯的效果。 02/07 12:43
→ yoyololicon: 合併啊 數據不是越多越好?還是合併會有啥問題 02/07 14:17
→ chang1248w: 爆ram 02/07 17:19
推 goldflower: 有可能B是會一直變的吧 比如一直增加的類別之類的 導 02/08 16:35
→ goldflower: 致全部重新訓練很沒有效率 02/08 16:35
推 goldflower: 另外一個方法 找Out of Distribution Detection的相 02/08 16:47
→ goldflower: 關技術 分兩段訓練 02/08 16:47
→ goldflower: 不過如果類別真的會一直長 這招可能也是治標不治本XD 02/08 16:48
→ yoyololicon: 爆ram就checkpoints 設起來R 02/09 20:10
→ yoyololicon: batch太大就gradient accumulate起來 很多招可以用 02/09 20:12
→ yoyololicon: ㄉ 02/09 20:12
→ hippo130: 雪崩式的忘記 02/14 00:56
→ catxfish: 在訓練樣本的抽樣上多下功夫比較實際吧 02/14 00:56
→ catxfish: 一般分類器用不平衡的訓練樣本怎麼可能會有好效果呢 02/14 01:01
推 andy5656: 這就Continual Learning 的範疇 02/14 11:34