看板 DataScience 關於我們 聯絡資訊
資料科學的板友好 小弟最近再複習資料探勘、機器學習的基礎數學。 預計會讀微積分、線代、機率與統計,以及練習一下Python 想請問在各科裡面有那些可以略過部分,有哪些需要額外加強的部分? 比如說:三角函數的部分需要念嗎? ps.目前以線上教材為主 Ex:莊重老師的微積分 以上,謝謝大家 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 124.9.79.207 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1561516952.A.462.html
loser113: 林軒田機器學習 youtu有 06/26 10:55
sxy67230: 機率與統計、隨機程序最好是有全方面都讀,尤其是想走GM 06/26 11:15
sxy67230: M領域。線代特徵方程、特徵向量,基本的矩陣運算、svd、 06/26 11:15
sxy67230: LU分解。微分真的用到的就是偏微方而已。這些讀熟,ML真 06/26 11:15
sxy67230: 心不難。 06/26 11:15
sxy67230: 進修就數學的最佳化理論,電資應該接觸到比較少要另外 06/26 11:17
sxy67230: 看,然後要從大架構看整個DL消息理論一定要讀熟。 06/26 11:17
thefattiger: 不用,邊看邊學就好,這領域的數學沒那麼難 06/26 11:25
thefattiger: 除非你要做基礎研究,不然基本線代跟機率概念有就好 06/26 11:26
sxy67230: 另外,我真心推薦吳恩達教授Coursera 的課程,雖然部分 06/26 12:00
sxy67230: 課程有點舊,但是作業都是從matlab來做,matlab的好處是 06/26 12:00
sxy67230: 你會比較有實際實用到線代在數值運算上的感覺。 06/26 12:00
sxy67230: 全部作業都有做的話,基本的ml一定沒問題 06/26 12:00
Pieteacher: 基本微積分概念 + 應用的線性代數層面 + 直接讀機器 06/26 19:01
Pieteacher: 學習 + python實作 就夠了 06/26 19:01
asa121: 謝謝版友的建議,我大概抓到方向了,謝謝各位。 06/26 19:09
erre: call svm 06/27 07:39
liang1230: .......不難喔 一堆收斂速度 generalization bound算 06/27 12:45
liang1230: 到我懷疑人生了 會用deep和理解也是兩回事 比創意不難 06/27 12:45
liang1230: 啦 比數學我看是難到爆啦 連現在的數學工具有沒有辦法 06/27 12:45
liang1230: 解決deep的問題都是個謎 06/27 12:45
thefattiger: 我在產品端的,重點是要能解決客戶跟user的問題 06/27 23:37
thefattiger: 只要理解各個算法的限制就好,不需要多高深的數學 06/27 23:37
thefattiger: 樓主是跨領域來學的,本來也就不太可能走學術 06/27 23:37
cybermeow: 怎麼不去讀讀現在deep learning theory的paper 你會發 06/28 06:46
cybermeow: 現convergence rate跟concentration bound都是小菜一疊 06/28 06:46
cybermeow: 不會random matrix, dynamical system, stochastic cal 06/28 06:48
cybermeow: culus我都不敢說自己會theory了 06/28 06:48
cybermeow: 更偏門的還有代數拓普的TDA跟information geometry 所 06/28 06:50
cybermeow: 以問到ml需要什麼數學我都笑笑 06/28 06:50
cybermeow: (沒有針對樓主或哪位 單純發牢騷 06/28 06:51
liang1230: Deep Learning Theory根本就還沒有幾個dataset可以算 06/28 19:28
liang1230: 好的bound你說小菜一碟.... 收斂速度也一堆沒辦法算 06/28 19:28
cybermeow: 我指的是傳統statistical learning theory的generaliza 06/29 20:09
cybermeow: tion bound跟convex optimization類型的基本convergenc 06/29 20:09
cybermeow: e rate 06/29 20:09
cybermeow: 不然新出的paper也不知道用什麼鬼神技術來做 XD. 06/29 20:11
liang1230: 也沒到什麼鬼神技術啦 就加一堆constrain還有一堆看不 07/01 10:54
liang1230: 懂的證明 07/01 10:54
tipsofwarren: David J. C. MacKay 07/02 07:30
tipsofwarren: Information Theory, Inference and Learning Algor 07/02 07:30
tipsofwarren: ithms 這本試試 07/02 07:30