→ yoyololicon: 要不要找ML相關的書籍試試 只看類神經網路的部份就好06/12 22:11
→ yoyololicon: deep learning那本的數學推導很工程師寫法06/12 22:12
→ yoyololicon: 又一堆字 我也不是看很懂= =
謝謝建議,我再翻翻看ML的書看有沒有符合老師需求的
推 championship: 那就換簡單一點的有convex性質的模型,就可以有很多06/12 22:36
→ championship: 數學性質可以講
不考慮換模型…我不想重打程式,而且組員應該會崩潰
推 proton: 去找台大李宏毅老師的上課教材來看06/12 23:00
感恩,有稍微看過,「一天學會深度學習」前面有幾頁投影片蠻符合我想找的東西
※ 編輯: ponponjerry (140.119.134.145), 06/12/2018 23:18:06
※ 編輯: ponponjerry (140.119.134.145), 06/12/2018 23:20:07
→ Mchord: 演算法最重要就backpropagation,深度學習用universal fun06/13 00:52
→ Mchord: ction approximator看待它就好,特殊結構如convolution或l06/13 00:52
→ Mchord: stm等才比較容易有物理意義去說明06/13 00:52
感恩,我之前大略看過backpropagation的演算法,看來得深入瞭解了!
→ f496328mm: 李宏毅老師 youtube 上有完整的影片06/13 10:05
→ f496328mm: 還有林軒田 看完很有幫助06/13 10:05
→ f496328mm: 上面是 DL 的電子書 應該可以找到你要的章節06/13 10:08
感謝提供!我再看看李宏毅老師相關的教學好了, DL那本我個人覺得幫助沒很大…
推 tsoahans: 李老師這學期的MLDS前面三章都講理論可以看看06/13 11:03
感恩,目前覺得李宏毅老師的教材好像是最好懂的了!
※ 編輯: ponponjerry (140.119.122.6), 06/13/2018 13:03:59
推 sma1033: 推一個清大吳尚鴻,他有些教材講得比李宏毅清楚06/13 13:14
稍微看了一下,覺得level蠻高的,感覺比較適合以後研讀XD 不過還是感謝你的提供!
推 OnePiecePR: 李宏毅+1。sigmoid、crossentropy 都很輕鬆推出來06/13 17:11
※ 編輯: ponponjerry (140.119.121.6), 06/13/2018 22:37:50
→ goldflower: 直接抄純python寫n-layer nn的code抄一次你就會了 06/14 03:32
→ goldflower: github上一狗票給你學06/14 03:32
→ goldflower: 吳尚鴻之前我都直接看他的ipynb 他講得我覺得還好@@06/14 03:33
我想你會錯意了…如果這位仁兄打完code,數學原理推導也會了,那也只能跪了
※ 編輯: ponponjerry (140.119.122.6), 06/14/2018 08:40:43
推 goldflower: 你在那call dense就以為是打完code當然不會啊XD06/14 15:51
推 goldflower: 不過李宏毅的確這邊超詳細的 應該沒比他更簡單的了06/14 15:54
了解!如果等我那樣打完code,大概就明年再來了XD
※ 編輯: ponponjerry (140.119.134.145), 06/14/2018 16:03:08
→ tsoahans: cs231的作業也蠻推薦的 寫完大概就能自己實做出DL框架 06/14 16:08
推 tsoahans: 吳尚鴻的數學講得比較深入 他連最佳化、PAC、NFL都有講 06/14 16:19
我個人是對這個領域蠻有興趣的,以後基本功強一點再好好研究他的教材XD,感謝你詳細
的介紹!
推 f496328mm: 樓上是 PCA 吧 06/14 20:47
※ 編輯: ponponjerry (140.119.134.145), 06/15/2018 00:23:22
→ ykjiang: 抱書回來啃吧06/15 00:22
→ tsoahans: 我講的是PAC learning06/15 04:23
→ tsoahans: 這是探討model的Generalization能力的一個理論,主要探 06/15 04:27
→ tsoahans: 討在data分布未知的情況下,倒底需要sample多少資料才能 06/15 04:28
→ tsoahans: 保證expected loss和empirical loss有很大的機率誤差在 06/15 04:29
→ tsoahans: 抹個範圍內。這個理論主要是在1980年代發展的,主要貢獻06/15 04:30
→ tsoahans: 者Leslie Valiant因此理論獲得Turing Award06/15 04:32
→ tsoahans: 後面的VC Theory也是在PAC的框架下繼續發展 06/15 04:32
→ tsoahans: PAC全名是probably approximately correct 06/15 04:34
推 Luluemiko: 長知識 推 06/15 10:32
推 njru04fm06: 有PAC learning喲06/15 22:36
→ njru04fm06: 很偏數學,跟上面大大說得差不多與PCA是兩個不同的東06/15 22:36
→ njru04fm06: 西06/15 22:36
推 goldflower: PAC我記得田神的課有 但早就忘光...QQ"06/15 23:47
※ 編輯: ponponjerry (219.70.183.56), 06/16/2018 01:03:47
推 booray: 李鴻毅老師的 youtube 看完發現新世界06/16 21:33
→ enhuang: 目前看到比較簡單清楚的教學,有python實作(從底層) 06/18 14:12
謝謝你的提供!!
※ 編輯: ponponjerry (140.119.134.145), 06/19/2018 23:16:11
※ 編輯: ponponjerry (140.119.134.145), 06/19/2018 23:20:48
推 h5904098: 想請教一下PAC 是田神的課裡面提到 hoeffding inequalit 07/25 12:51
→ h5904098: y 相關的東西嗎? 07/25 12:51
→ tsoahans: 是 08/02 17:59