看板 DataScience 關於我們 聯絡資訊
在二元分類問題中 最後一層hidden layer往往使用sigmoid或是softmax 而其loss function在計算上是相同的 然而卻時常聽到使用softmax的準確率好於sigmoid的說法 不知道其中的道理或是可能的原因在哪裡呢? 找好久的資料還是不知道所以然QQ (其實是因為被質疑說我的模型為什麼不使用softmax來求助大家 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.71.215.69 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526670786.A.55F.html
pups003: 我的認知是,在二元分類問題,如果輸出層是1維就用sigmoi 05/19 12:42
pups003: d, 是2維就用softmax ,但是應該沒有什麼理由要用2維的 05/19 12:42
pups003: 輸出(? 05/19 12:42
bestchiao: 因為softmax輸出總合為1 sigmoid不一定? 05/19 15:04
yoyololicon: 多一個output最後一層的參數會比單個sigmoid多一倍ㄅ 05/19 16:11
yoyololicon: 但數學式子完全一模一樣 覺得沒什麼必要用softmax 05/19 16:13
truehero: 在二元分類下 sigmoid和softmax的節果應該是一樣的 05/19 18:23
ray39620: 也可問他為什麼不能用sigmoid 05/22 10:27