看板 DataScience 關於我們 聯絡資訊
作業系統:(ex:mac,win10,win8,win7,linux,etc...) macos 問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) ML 使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) tensorflow 問題內容: 請問tensorflow 中的sigmoid_cross_entropy_with_logits https://goo.gl/tRjS6j labels 在二分類上是要轉成one-hot vector 還是直接給0 or 1就可以了 不太懂網頁中這句話 Measures the probability error in discrete classification tasks in which each cl 在範例中也常常看到logits這個字 請問logits有什麼特別意思嗎? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.5.50 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524642039.A.196.html ※ 編輯: f422661 (36.229.5.50), 04/25/2018 15:42:50
robert780612: 是指最後一層未過softmax的值04/25 19:15
robert780612: 應該是延用logistic regression的名稱吧04/25 19:16
robert780612: logistic regression的link function就是sigmoid04/25 19:17
好的謝謝!! 不過還是不太懂是不是要用one-hot vector當label? ※ 編輯: f422661 (36.229.5.50), 04/25/2018 21:14:28
EGsux: 二分類裡0 1跟 onehot是一樣的阿04/25 21:45
abc2090614: logit丟wiki就有了啊04/26 06:50
謝謝各位前輩 ※ 編輯: f422661 (27.242.170.199), 04/26/2018 09:35:21