看板 Prob_Solve 關於我們 聯絡資訊
不好意思,想請請教各位大大, 我看一般訓練類神經網路都是使用反向傳播演算法(Backpropagation), 可是我看類神經網路(ANN)與邏輯回歸式(Logistic regression)高度相似, 甚至有些人說,邏輯回歸式疊加就是類神經網路! 所以我在想,是否我可以用多層的邏輯回歸式,來建立深度學習? 並且邏輯回歸式權重雖然可以用BP求得, 但是其實也可以直接根據輸入來算吧? 而且感覺直接以邏輯回歸式本身計算方法算出權重,應該會比BP更快? 可是我似乎都沒看到有人這樣用,是會有甚麼問題嘛? 有相關的論文資料嘛? -- 壁河山攻守 爭成敗悟道 許銀川 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.164.99.134 ※ 文章網址: https://www.ptt.cc/bbs/Prob_Solve/M.1503842998.A.171.html
andrenvq57: ㄜ 可以定義多層嗎 08/28 08:36
我想到是3種算法,直接把上一層的資料,多算1遍,就可以產生2組資料, 再把此2組資料再進行一次LR這樣子 法2:原先可能LR是處理6維回歸,我把他變成2個LR,各處理3維回歸, 再將這2組資料LR 法3:原來是6類分類,我再將分類細分成更多類譬如43類, 然後LR成6個數值,之後再LR出答案 話說...其實我數學不好Q 所以不是很確定我這樣OK嘛?
singlovesong: 是一樣的東西 就是多參數求導 BP 只是 chain rule 08/29 12:27
好的,謝謝您<3
jackace: DN不只是Sigmoid 公式解能用的場合太少 maxpooling, BN, 09/13 21:06
jackace: 還有RNN 都沒公式解 09/13 21:11
現在也接觸到了如relu之類的存在了,謝謝大大提點! ※ 編輯: st1009 (1.163.157.60), 09/21/2017 19:27:06