看板 Soft_Job 關於我們 聯絡資訊
※ 引述《beaprayguy (小羊快跑啊)》之銘言: : 最近被deepmind的AI震驚 : AI最核心部分是deep learning : 閱讀文獻得知,deep learning : 是透過artificial neural network : 透過一層一層neuron堆疊,得到一個output : 若想自學要從哪一方面進入,若相關職缺基礎門檻是什麼。 你好,想要入手 DL,建議先從感知機(perceptron)入手。 感知機是所有類神經網路的單細胞,先讀懂這個才不會覺得門檻太高。 反過來說,連這個讀不懂,那就要再審慎評估自己適不適合機器學習? perceptron 是最基本的線性機器學習模型,所有機器學習的課本都會講到, 包括田神的書。不過田神的書比較難讀啦,有很多嚴謹的證明。 我自己是從 pattern recognition 入門機器學習的。 實踐是檢驗的最好方法,找一個能一刀畫開的兩類 2D dataset, 你的目標就是找程式自動將他們劃開,這也是機器學習的目標。 逼自己忍住工具的誘惑,不用任何函式庫,用你最熟悉的程式語言自行硬幹 perceptron。 讀理論、實作、讀理論、修改實作、讀理論、再修改實作、讀理論、再繼續修改實作, 如此不斷循環,直到你的 perceptron 程式可以自動找出一類一邊的正確直線為止, 恭喜你!取得了搞懂類神經網路的第一個里程碑! 接下來就推廣到 MLP 以及如何用 back-propagation 收斂,搞懂了就不怕類神經網路, 不過那又是另外一個坑了.. --- 阿?那要什麼時候才可以開始學習 Deep Learning 呢? 等你發現傳統 MLP 層數加多也沒什麼屁用的時候,那就是學習 DL 的開始惹。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.233.52.77 ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1501344683.A.644.html ※ 編輯: deo2000 (36.233.52.77), 07/30/2017 00:22:24
hsnuyi: 林的書跟國外同等級的課比起來 算很平易近人了 每章後面的 07/30 00:27
hsnuyi: 習題倒比較有水準 07/30 00:27
hsnuyi: 而且NN是放在e-Appendix 科科 07/30 00:28
hsnuyi: e-Chapter 寫錯 07/30 00:29
那本書出來的時候 NN 還沒有這麼紅,主角還是 SVM 與 cascade。 ※ 編輯: deo2000 (36.233.52.77), 07/30/2017 00:33:10
hsnuyi: 某些領域SVM還是很棒呢 NN有時提供的少量優勢 必須要用數 07/30 00:49
hsnuyi: 十倍的training time去換 只能用來發paper 07/30 00:49
你說的 NN 有用試圖平均 margin 嗎? 我認為 NN 應該要用 Hinge Loss Function 才能和 SVM 公平比較 ※ 編輯: deo2000 (36.233.52.77), 07/30/2017 01:13:13
ericrobin: 精確度高一些但時間多好幾倍算公平嗎? 07/30 02:55
buper: 看他要時間還是正確性囉 07/30 03:22
dreamnook: 推個 07/30 10:22
SouthRa: 哇靠你這篇寫得超排外的 看得懂的只有原本就懂的人 07/31 02:49
SouthRa: 新手看了你的介紹馬上就會昏頭了 07/31 02:49
我如果寫到大家都看得懂,那應該有 10 倍以上篇幅,都可以當成專欄文章了。 不是我不想寫,但是這樣的文章應該沒多少人有耐心看,直接 end...
beaprayguy: 有關鍵字,就好google 07/31 07:25
beaprayguy: 我覺得這篇讓我瞭解很多 07/31 07:26
感謝回饋~ ※ 編輯: deo2000 (125.227.205.43), 07/31/2017 10:42:30
wildli0422: 看不太懂 但是得到很多關鍵字 08/01 19:04
wildli0422: 謝謝你 08/01 19:04
Surrey00: dick learning 08/02 11:46
alan23273850: PUSH 08/02 14:42
ppc: 這篇寫得不錯啊 08/10 02:32