看板 DataScience 關於我們 聯絡資訊
手機排版請見諒... 小弟剛踏入機器學習領域不久 本來都follow PRML然後直接numpy實作底層 但是當我偶然跑去翻開scikit-learn上大神們的code以後才發現自己根本像烏龜一樣在往 前進... 所以想問問板上的大神們都是怎麼訓練自己的 小弟綜合多篇文章走的路大多都是: PRML -Good Fellow那本Deep learning-Conference paper等配合Kaggle實作 然後讀PRML或是Goodfellow也是實作一些底層這樣,但是讀起來很挫折,實際implement更 是滿滿的失落感。 小弟目前大概只把PRML掃過一次然後做一些相對較重要的演算法然後開始啃Deep learnin g那本。 想問板上的大神們這樣走下去真的是對的嗎? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.44.219 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1578051845.A.A80.html
Kazimir: 不要看good fellow那本學DL 那是給會的人看的書 01/03 20:08
abjw778899: 我覺得PRML才真的是給神看的書QAQ 01/03 20:12
Kazimir: 我是認為看這些書最好是有了基礎再看 我會傾向先從mooc 01/03 20:18
Kazimir: 開始著手 一邊檢驗自己是不是數學都充分了 最後再看書來 01/03 20:20
Kazimir: 獲取更多Insight 我曾經信過DL那本說自己self-contained 01/03 20:22
Kazimir: 面向工程師的鬼話 看的那是痛不欲生XD 01/03 20:22
abjw778899: 其實之前上課老師都follow PRML可是自己真的實際推導 01/03 21:04
abjw778899: 的時間要花超久,我之前會拿老師的錄音檔複習,另外 01/03 21:04
abjw778899: 其實我也最近開始服用清大吳尚鴻的OCW這樣,可是還是 01/03 21:04
abjw778899: 覺得真的遠遠不夠orz 01/03 21:04
abjw778899: 另外我自己實際推導要用的數學基本面好像還好,反而 01/03 21:05
abjw778899: 很多tricky的地方,所以我覺得無論再怎麼補數學基礎 01/03 21:06
abjw778899: 其實都有點隔靴搔癢,我後來索性就直接看解答或查資 01/03 21:06
abjw778899: 料推導這樣 01/03 21:06
kiwi946946: prml和dl你目前都用不到,李弘毅,吳恩達,林軒田公開 01/04 03:32
kiwi946946: 課程,配合作業實作,然後prml如果有要賣二手請私我XD 01/04 03:32
erre: call package調參數, 然後出去說自己做ai還應徵大學教職 01/04 08:53
erre: 掰陳是成功的例子,現在是助教級助理教授! 01/04 08:54
Edison4ever: 為什麼叫做掰陳? 01/04 09:27
abjw778899: 我目前就大概follow老師的實作在走,感謝wiki大大 01/04 14:57
howayi: PRML的Appendix都很重要 01/04 21:56
abjw778899: 有,我常常翻那邊補充數學back ground不過說實在好像 01/05 00:46
abjw778899: 用到的其實沒有很多,頂多向量或是矩陣微分這樣orz 01/05 00:46
j0958322080: 助理教授就助理教授,啥叫做助教級助理教授 01/05 23:45
abjw778899: 其實我還蠻想知道他到底為什麼這麼執著,如果有他講 01/06 00:05
abjw778899: 的這麼簡單為什麼不自己去做就好,還瘋狂暗示人不講清 01/06 00:05
abjw778899: 楚掰陳是誰到處留言像小狗撒尿一樣 01/06 00:05
roccqqck: 好像是他對交大Andrew Chen很有怨言 01/06 00:37
abjw778899: 樓上厲害了哈哈有同名同姓的人 01/06 07:33
roccqqck: 我之前沒事google他的推文 但我也不知道是誰 01/06 08:56
sxy67230: 如果你是學生,我會推薦你用手刻一個功能去實際感受, 01/06 09:25
sxy67230: 尤其是sklearn的回歸分析有很多功能其實是缺少的,但是 01/06 09:25
sxy67230: 實際應用我會說你就找一個最好的library 去使用,因為 01/06 09:25
sxy67230: 按照Andrew Wu的課follow,很多特殊模塊套件已經幫你處 01/06 09:25
sxy67230: 理好了,不需要在一直重複implement。 01/06 09:25
sxy67230: PRML真正的用意是要讓你理解算法過程,不是讓你去implem 01/06 09:35
sxy67230: ent用的,而且你用numpy真正去實作還可能會遇到效能上 01/06 09:35
sxy67230: 的問題,套件很多時候把你的效能問題都做了一定程度的優 01/06 09:35
sxy67230: 化跟支持multiple cpu的做法,自己去做真的很浪費生命。 01/06 09:35
abjw778899: QAQ樓上大神感謝 01/06 10:28
abjw778899: 之前就是因為手刻EM才發現效能問題,自己跟package差 01/06 10:33
abjw778899: 太多了,才很厭世的跑上來問自己是不是走在對的方向上 01/06 10:33
abjw778899: orz想問樓上大大現在還會去重新理解PRML或是Deep lear 01/06 10:33
abjw778899: ning每個數學細節嗎? 01/06 10:33
as30385438: 只是要驗證自己對算法的理解對不對,用純python刻個 01/06 12:03
as30385438: 原型再用最簡單的dataset測試就好,不用執著於優化細節 01/06 12:04
sxy67230: 我認為想要繼續往專業的道路前進,數學細節還是不要馬 01/06 13:11
sxy67230: 虎啦,真的認真跟你說,小孩子才做選擇,我自己當然是 01/06 13:11
sxy67230: 全部都要。如果今天真的遇到很有趣的新論文,我也會自己 01/06 13:11
sxy67230: 先手刻一個,遇到真的要應用的在去找最優解。 01/06 13:11
abjw778899: 好的,了解。只是我說的細節是指那兩本書的數學推導 01/06 13:42
abjw778899: 細節,並不是優化效能的細節QAQ,我常常導一導一個早 01/06 13:42
abjw778899: 上或下午就沒了,所以想知道到底該不該繼續這樣 01/06 13:42
abjw778899: 抱歉剛剛那段話是回as大大的,我手機畫面剛剛暫留在sxy 01/06 13:49
abjw778899: 還沒留言的畫面,sxy大大這邊有我的膝蓋orz我接下來可 01/06 13:49
abjw778899: 能先拉快進程把deep 掃過一遍,再來trace 一些 paper 01/06 13:49
abjw778899: 的時候把那些數學細節疏理一次可能有需要用的就手刻這 01/06 13:49
abjw778899: 樣 01/06 13:49