→ jackwang01: 比起隨機產生的noise權重,至少在別的項目上有學到一 07/15 11:56
→ jackwang01: 些基本的形狀、顏色等等的特徵 07/15 11:56
推 kyushu: 要直覺的說,就是越靠近input 端的layer學習到的是越低階 07/15 19:48
→ kyushu: 的特徵,越靠近loss端的layer是越高階的特徵 07/15 19:48
推 goldflower: 我會想成不管你拿什麼任務 在理想情況下都是抽出一堆 07/15 20:53
→ goldflower: 獨立的basis 那即使這些basis不同(即不同任務抽取的 07/15 20:53
→ goldflower: 特徵) 他們都能一定程度的表示好資料的超空間 07/15 20:53
推 thefattiger: 以影像來講,傳統CV都是用那幾種descriptor解決問題 07/15 21:56
→ thefattiger: 換個task就只是取得descriptor後的用法不同 07/15 21:57
推 sxy67230: Transfer的概念用你可以用實例會比較清楚,圖像就是把別 07/15 23:12
→ sxy67230: 的模型上層分類大尺寸的都拔掉,剩下點、線、色彩這些cn 07/15 23:12
→ sxy67230: n的特徵是不用fine tune 的。語音的部分就是保留發音結 07/15 23:12
→ sxy67230: 構的特徵,所以你只要重新訓練音調那些特徵就好了。 07/15 23:12
推 sxy67230: 從向量的角度出發就是你把相似的task當成bias去繼續做gr 07/15 23:15
→ sxy67230: adient,所以你會發現到訓練完成後,你在去預測原本的 07/15 23:15
→ sxy67230: 任務,原本的任務就爛掉了。 07/15 23:15
推 erre: 用googlenet改參數,掰陳是這樣做的 07/16 23:15