→ truehero: 同意 04/23 21:33
推 bessgaga: 小於0的值對於softmax的值影響通常微乎其微,所以我覺得 04/23 22:15
→ bessgaga: 加relu根本沒差 04/23 22:15
→ TOEFLiBT100: 如果所有output都是小於0呢? 04/23 22:26
→ TOEFLiBT100: softmax應該還是會選出一個最靠近0的 04/23 22:26
推 EGsux: softmax本身就算是 activation的一種 只是 activate 最後 04/23 22:52
→ EGsux: 的是class 沒有說不可以只是對結果不會有幫助 04/23 22:52
推 yoyololicon: softmax只有兩個class的話跟sigmoid一模一樣 04/24 11:05
→ yoyololicon: 你覺得呢^^ 04/24 11:05
可是無論如何你最後還是要經過softmax阿 這樣梯度消失的問題還是存在
還是你認為先經過ReLU再經過softmax會讓梯度消失的問題減少?
我可能不像你那麼聰明 我覺得我看不出來先經過ReLU再經過softmax對梯度消失有什麼
特別幫助
※ 編輯: Haikyuu (140.112.25.99), 04/24/2018 15:49:29
推 KyotoAnime: 呃...只有最後一層softmax 應該不會有梯度消失的問題 04/24 19:00
→ KyotoAnime: 吧 梯度消失是連續的sigmoid才會有吧 04/24 19:00
→ TOEFLiBT100: 最後一層還是有可能梯度消失吧 如果最後都是很大的值 04/24 19:58
→ TOEFLiBT100: 那gradient算出來就是0 若有錯請大家指正 04/24 19:59
→ TOEFLiBT100: 我上面昰假設最後接sigmoid的activation的情況下 04/24 20:44
推 chadcooper: 都是很大的值還是有gradient,手動微分你會發現 04/25 00:08
→ chadcooper: gradeint只跟p有關,只有p跑到1或是0時才沒有gradeint 04/25 00:09
推 OnePiecePR: 不用怕資訊流失,麻豆會因為relu 而找出最好的權位比 04/25 08:36
→ OnePiecePR: 失去的資訊得到更好的結果。我感覺。 04/25 08:36
推 h821231: 我記得softmax本身就是activation function了 04/27 02:26