看板 DataScience 關於我們 聯絡資訊
各位版友好,我一直在試著重現alexnet的實驗 之前的部分是一直會有崩潰解所以有點疑惑 我後來在pytorch上面找到他們實踐alexnet實驗的code 看了一下參數都跟原paper上的一樣 除了是train在2012的train set與驗證在valset上之外 應該是都一樣,根據原文他們在test上的top1 73% top5 84% 而我在valset上只能得到top1 47% top5 72% 因為他們的testing api已經關閉,所以是完全沒機會驗證test set了 但是valset與testset的差異應該不至於如此巨大 想請問有甚麼可能性會導致這樣的結果呢 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 124.218.7.190 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1607351747.A.64E.html
kokolotl: 有請通靈王 12/07 23:52
clansoda: 抱歉 在這裡把我使用的code補上 12/08 07:48
clansoda: https://reurl.cc/q8ek2y 12/08 07:48
clansoda: 資料的部分使用的是2012年的imagenet train跟val都是 12/08 07:49
yiefaung: 找pretrain model測試testing有沒有問題 12/09 12:13
mirror0227: 你的訓練過程和訓練資料有沒有問題? 12/09 19:08
clansoda: y大,好的 我這兩天找時間試試看 12/10 22:47
clansoda: m大,訓練資料應該是沒錯,過程的話我完全仿照demo上的 12/10 22:47