推 goldflower: 看起來是error炸了 有normalize先?04/21 15:13
是加BatchNormaliztion()嗎?還是其他東西
推 tea596933: output layer的activation改用softmax?04/21 15:26
我後來又改成softmax好像不會卡在0.5了xD謝謝啦,記憶混亂
→ tea596933: 另外推樓上 normalize蠻重要~04/21 15:27
推 goldflower: 2分類softmax = sigmoid喔 可以帶個數字看一下04/21 15:30
對啊,好像一樣,我是先用softmax再試sigmoid
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:32:01
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 15:33:27
推 tea596933: 數學式不太一樣 但的確不是這裡重點 謝謝指正~04/21 15:36
推 tea596933: 這裡sigmoid的output是2 表示模型預測是貓或狗的機率可04/21 15:39
→ tea596933: 以同時是1 用softmax的話兩個機率一定加總為104/21 15:39
推 goldflower: 一樣內 你把0,1代進去就知道惹04/21 15:39
→ goldflower: 你可能是0-255 要轉到0-104/21 15:40
推 ray39620: 該跟樓上說的一樣,要先預處理04/21 17:18
謝謝你,我會努力看懂他在幹嘛的
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:38:38
※ 編輯: nctukmdick (123.110.103.225), 04/21/2018 18:39:35
→ Mchord: 樓上提到sigmoid output2是怎麼回事 04/21 20:59
推 wilson0937: 想順便問一下 norm. 的理由是啥,之前被老闆問回答不 04/21 22:06
→ wilson0937: 出來 04/21 22:06
推 EGsux: norm 照片會train比較快, 帶去下一層的數值比較不會令 gra 04/21 23:12
→ EGsux: dient爆炸 04/21 23:12
→ tea596933: 回M大 我看著output layer的nodes數量為2 解釋時誤植 04/22 00:38
→ tea596933: 為sigmoid output 2 打快造成誤會抱歉 04/22 00:38
推 aqua2: 訓練資料有亂數打亂嗎 04/22 03:35
推 ssd860505da: 有加BN真的有差 04/22 03:36
推 f496328mm: lr的問題 04/22 18:09
→ f496328mm: 分享一下之前做的 04/22 18:10