看板 DataScience 關於我們 聯絡資訊
各位前輩大家好 最近看到有關特徵萃取與微調的技術 想請問各位前輩 1.兩者的差異是不是主要差在一個完全凍結conv_base一個沒有 還是有什麼其他差異呢? 實作上是不是都以微調居多? 2.最近在使用一些model EX:VGG16, ResNet等 如何分辨輸入是否要壓縮至0~1之間 VGG16實作結果不壓縮準確率較高一些 是觀察本身模型是否有batch_norm嗎 還是注意什麼地方? 感謝各位前輩的解答 若您方便的話有關遷移學習的一些常犯錯誤 也提點一下小弟 謝謝! 作業系統:COLAB(linux) 問題類別:CNN 使用工具:Python, Keras -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.178.251 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1596122203.A.CE0.html
acctouhou: 1大部分已經沒有這樣分了,我個人經驗,先fix,然後tra 08/01 02:10
acctouhou: in完後端後再unfix 08/01 02:10
acctouhou: 2這要根據你的model當初是怎麼被train 的,你就用相同 08/01 02:12
acctouhou: 方法 pytorch的話有獨立對rgb shift, tf的好像是縮放 08/01 02:12
acctouhou: 到1~-1之間 08/01 02:12