看板 DataScience 關於我們 聯絡資訊
作業系統:Linux 問題類別:CNN 使用工具:Keras 問題內容: 小弟菜逼八剛接觸ML 再訓練貓狗分類器時,acc和val_acc一直卡在0.5,這樣跟用猜的機率一樣...,不知道是 哪邊出了原因,求各位大神指點 https://i.imgur.com/ixHSHaf.jpg https://i.imgur.com/aRmMYUu.jpg https://i.imgur.com/ppf8ERA.jpg -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.110.103.225 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524292452.A.C10.html
goldflower: 看起來是error炸了 有normalize先?04/21 15:13
是加BatchNormaliztion()嗎?還是其他東西
tea596933: output layer的activation改用softmax?04/21 15:26
我後來又改成softmax好像不會卡在0.5了xD謝謝啦,記憶混亂
tea596933: 另外推樓上 normalize蠻重要~04/21 15:27
goldflower: 2分類softmax = sigmoid喔 可以帶個數字看一下04/21 15:30
對啊,好像一樣,我是先用softmax再試sigmoid ※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:32:01 ※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:33:27
tea596933: 數學式不太一樣 但的確不是這裡重點 謝謝指正~04/21 15:36
tea596933: 這裡sigmoid的output是2 表示模型預測是貓或狗的機率可04/21 15:39
tea596933: 以同時是1 用softmax的話兩個機率一定加總為104/21 15:39
goldflower: 一樣內 你把0,1代進去就知道惹04/21 15:39
goldflower: 你可能是0-255 要轉到0-104/21 15:40
ray39620: 該跟樓上說的一樣,要先預處理04/21 17:18
ray39620: 可以跟著這篇做 https://goo.gl/cW5HVK04/21 17:20
謝謝你,我會努力看懂他在幹嘛的 ※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:38:38 ※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:39:35
Mchord: 樓上提到sigmoid output2是怎麼回事 04/21 20:59
wilson0937: 想順便問一下 norm. 的理由是啥,之前被老闆問回答不 04/21 22:06
wilson0937: 出來 04/21 22:06
EGsux: norm 照片會train比較快, 帶去下一層的數值比較不會令 gra 04/21 23:12
EGsux: dient爆炸 04/21 23:12
tea596933: 回M大 我看著output layer的nodes數量為2 解釋時誤植 04/22 00:38
tea596933: 為sigmoid output 2 打快造成誤會抱歉 04/22 00:38
aqua2: 訓練資料有亂數打亂嗎 04/22 03:35
ssd860505da: 有加BN真的有差 04/22 03:36
f496328mm: lr的問題 04/22 18:09
f496328mm: 分享一下之前做的 04/22 18:10