→ chang1248w: 一定有 04/27 01:06
→ chang1248w: a b c others要注意unbalanced label 04/27 01:08
→ chang1248w: 不滿意這個做法的話你可以往semi supervise learning 04/27 01:09
→ chang1248w: 去找方向,譬如fixmatch及其後續的算法 04/27 01:10
→ chang1248w: 我之前做的是把四個標籤標法不同的資料集混在一起訓 04/27 01:12
→ chang1248w: 練,共用特徵攝取的網路,最後一層再個別分類。 04/27 01:12
→ chang1248w: 譬如A B兩個資料集,A標1 2,B標男女,a來自A帶有標 04/27 01:17
→ chang1248w: 籤1可是沒有標男或女,所以最後在算loss的時候,就分 04/27 01:17
→ chang1248w: 別算有標籤和沒有標籤的兩個loss,最後加起來 04/27 01:17
→ chang1248w: 你不信任others這個標籤,可以當作無標籤,給他幾個 04/27 01:20
→ chang1248w: 潛在類別讓他自己學 04/27 01:20
→ chang1248w: 又或者當成multi label classification做 04/27 01:21
→ chang1248w: 玩法很多,會不會比較好不知道,因為半/自監督吃調教 04/27 01:22
→ chang1248w: 在比較模型的時候可以用tsne把圖片最後一層的feature 04/27 01:26
→ chang1248w: 降到2維看看分佈,常常會有意想不到的收穫 04/27 01:26
→ ctr1: 謝謝c大這麼多的經驗分享!!受用良多 04/27 01:38
推 ddavid: 也可以針對 A vs (B + C + other) 做一個二元訓練,B 跟 C 04/27 21:41
→ ddavid: 也以此類推,然後再做一層用來 ensemble 這三個之類的,玩 04/27 21:43
→ ddavid: 法很多 04/27 21:43