推 steven95421: 個人經驗覺得bert在downstream task fine tune 的時 10/27 20:56
→ steven95421: 候後面額外接什麼做end2end的training都很容易壞qq 10/27 20:56
推 a75468: Bert 有跟 downstream 一起 finetune 嗎? 10/27 21:25
→ e9904567: 感謝經驗分享,我們會再找找其他方式 10/28 05:23
推 luli0034: fine tune會回去update BERT裡面的parameters吧 如果像 10/28 12:03
→ luli0034: 圖片這樣用feature-based的做法concat TFIDF這樣有辦法b 10/28 12:03
→ luli0034: ack propagation嗎(? 10/28 12:03
推 luli0034: 我自己的經驗這樣做的話就是將BERT當作一個representati 10/28 12:05
→ luli0034: on跟其他representation 結合訓練下游分類器了XD 不太 10/28 12:05
→ luli0034: 像fine tune 10/28 12:05