看板 Soft_Job 關於我們 聯絡資訊
※ 引述《d8888 (Don)》之銘言: : 1. 高淑蓉 高等微積分(一) : https://www.youtube.com/watch?v=0vGrHMwdotE
: 學高微是為了某些初微沒深入講的應用,例如 R^n(n>3)上的微積分或是矩陣上的微積 : 分,結果目前看了約 50% 就陷入嚴重精神污染,覺得睡覺會聽到古神的低語。目前決定 : 先暫停影片補書本基礎。結果指定教材看到 Introduction 集合理論公理化還有邏輯學就 : 倒了,後來想換個中文講義降低難度,遇到戴德金分割這種玄學小弟又倒了。看來小弟不 : 是適合數學的料 XDDDDDD : 也順便問問有沒有同好有推薦的 Q<>Q 關鍵字 jacobian https://zh.wikipedia.org/zh-tw/%E9%9B%85%E5%8F%AF%E6%AF%94%E7%9F%A9%E9%98%B5 用在 R^n -> R^m 的 function 微分. R^n -> R, 這算是一個簡化的特例 關鍵字 gradient https://zh.wikipedia.org/zh-tw/%E6%A2%AF%E5%BA%A6 machine learning通常會需要求極值, 微積分告訴我們極值會發生在微分 = 0的位置,也介紹了數個方法求極值 https://zh.wikipedia.org/zh-tw/%E6%87%89%E7%94%A8%E6%96%BC%E6%9C%80%E5%84%AA%E5%8C%96%E7%9A%84%E7%89%9B%E9%A0%93%E6%B3%95 例如牛頓法可以拿來求f' = 0, 也支援R^n函數 求極值的方法很多,我畢業很久一時想不起來那些名詞,牛頓法是最基本的方法 沒記錯統計學上也有一些相關討論 求完極值後,還會有global跟local極值的問題, 沒記錯目前沒有方法保證求到的是global minimal. ML基本常用的數學就這幾個方向吧? 個人覺得不太需要看高微 微積分,高微,實變,這幾個數學上歸類analysis相關課程 外系微積分會介紹怎麼微分跟積分 高微會討論那些函數無法微分跟積分 實變出現了Lebesgue integral來討論黎曼積分無法積分的那些函數 這些課程我們關心一個sequence {fn}, 若fn -> f, fn都可微,是否保證f可微 若無法保證f可微,增加哪些條件可以保證f可微? 當然完整的課程內容不只這些,但我主要想講的是個人沒那麼建議念高微 高微更多重點放在理論討論,而且高微不好入門,不如念一些好入門的東西. https://hackmd.io/@johnnyasd12/rkFd2TuK7 有點偏離原本的主題了,這篇是回給d8888,對ML,DL有興趣可以參考我貼的這個連結 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.241.181.76 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1710213590.A.6E9.html
d8888: 感謝大大的回覆 <(_ _)> 03/12 19:54
xoy232: 感謝 03/15 08:06