→ loser113: 林軒田機器學習 youtu有 06/26 10:55
→ sxy67230: 機率與統計、隨機程序最好是有全方面都讀,尤其是想走GM 06/26 11:15
→ sxy67230: M領域。線代特徵方程、特徵向量,基本的矩陣運算、svd、 06/26 11:15
→ sxy67230: LU分解。微分真的用到的就是偏微方而已。這些讀熟,ML真 06/26 11:15
→ sxy67230: 心不難。 06/26 11:15
推 sxy67230: 進修就數學的最佳化理論,電資應該接觸到比較少要另外 06/26 11:17
→ sxy67230: 看,然後要從大架構看整個DL消息理論一定要讀熟。 06/26 11:17
推 thefattiger: 不用,邊看邊學就好,這領域的數學沒那麼難 06/26 11:25
→ thefattiger: 除非你要做基礎研究,不然基本線代跟機率概念有就好 06/26 11:26
推 sxy67230: 另外,我真心推薦吳恩達教授Coursera 的課程,雖然部分 06/26 12:00
→ sxy67230: 課程有點舊,但是作業都是從matlab來做,matlab的好處是 06/26 12:00
→ sxy67230: 你會比較有實際實用到線代在數值運算上的感覺。 06/26 12:00
→ sxy67230: 全部作業都有做的話,基本的ml一定沒問題 06/26 12:00
→ Pieteacher: 基本微積分概念 + 應用的線性代數層面 + 直接讀機器 06/26 19:01
→ Pieteacher: 學習 + python實作 就夠了 06/26 19:01
→ asa121: 謝謝版友的建議,我大概抓到方向了,謝謝各位。 06/26 19:09
推 erre: call svm 06/27 07:39
噓 liang1230: .......不難喔 一堆收斂速度 generalization bound算 06/27 12:45
→ liang1230: 到我懷疑人生了 會用deep和理解也是兩回事 比創意不難 06/27 12:45
→ liang1230: 啦 比數學我看是難到爆啦 連現在的數學工具有沒有辦法 06/27 12:45
→ liang1230: 解決deep的問題都是個謎 06/27 12:45
推 thefattiger: 我在產品端的,重點是要能解決客戶跟user的問題 06/27 23:37
→ thefattiger: 只要理解各個算法的限制就好,不需要多高深的數學 06/27 23:37
→ thefattiger: 樓主是跨領域來學的,本來也就不太可能走學術 06/27 23:37
→ cybermeow: 怎麼不去讀讀現在deep learning theory的paper 你會發 06/28 06:46
→ cybermeow: 現convergence rate跟concentration bound都是小菜一疊 06/28 06:46
→ cybermeow: 不會random matrix, dynamical system, stochastic cal 06/28 06:48
→ cybermeow: culus我都不敢說自己會theory了 06/28 06:48
→ cybermeow: 更偏門的還有代數拓普的TDA跟information geometry 所 06/28 06:50
→ cybermeow: 以問到ml需要什麼數學我都笑笑 06/28 06:50
→ cybermeow: (沒有針對樓主或哪位 單純發牢騷 06/28 06:51
→ liang1230: Deep Learning Theory根本就還沒有幾個dataset可以算 06/28 19:28
→ liang1230: 好的bound你說小菜一碟.... 收斂速度也一堆沒辦法算 06/28 19:28
推 cybermeow: 我指的是傳統statistical learning theory的generaliza 06/29 20:09
→ cybermeow: tion bound跟convex optimization類型的基本convergenc 06/29 20:09
→ cybermeow: e rate 06/29 20:09
→ cybermeow: 不然新出的paper也不知道用什麼鬼神技術來做 XD. 06/29 20:11
推 liang1230: 也沒到什麼鬼神技術啦 就加一堆constrain還有一堆看不 07/01 10:54
→ liang1230: 懂的證明 07/01 10:54
推 tipsofwarren: David J. C. MacKay 07/02 07:30
→ tipsofwarren: Information Theory, Inference and Learning Algor 07/02 07:30
→ tipsofwarren: ithms 這本試試 07/02 07:30