推 senjor: 我覺得這就是有點看不起應用層了,選好Featrue不見得比做 10/23 11:03
→ senjor: kernel簡單,不如說好的featrue改善程度遠大於改kernel 10/23 11:03
→ senjor: 很多時候還會選不同kernel來驗證這個featrue是真的有效的 10/23 11:04
→ senjor: 這也算是ML的鄙視鏈吧... 10/23 11:04
→ foxgoodboy: Featrue通常是靠統計哪塊去選~不然你是怎麼選feature? 10/23 11:05
→ foxgoodboy: 統計不夠強根本無法選出合適的features 10/23 11:07
→ foxgoodboy: 只能用try的 目前台灣好像都是用try的 10/23 11:07
推 senjor: 應該說ML有很多面向,用現成的API調參數只是一個選擇,每 10/23 11:09
→ senjor: 人著重的面向都不同,不代表用現成的API調參數就是不懂ML 10/23 11:10
→ foxgoodboy: 因為API很方便 所以國外蠻多做ML的公司 面試 10/23 11:11
→ foxgoodboy: 就直接考你公式推導 還有每個API參數的特性 10/23 11:12
→ foxgoodboy: 適用於那種data 會考的你不要不要的~~~ 10/23 11:13
→ foxgoodboy: 因為他們就怕你只會調參數 但不知道它的原理 10/23 11:14
推 senjor: 這方面我就沒涉獵了,受教了。 10/23 11:14
→ foxgoodboy: 最好笑的 我有一個同學直接跟面試官說 我會調參數就好 10/23 11:16
→ foxgoodboy: 面試官直接回答他 你原理都不懂 你確定你會調? 10/23 11:16
噓 hsnuyi: 您認真了 跟GG版說這些做啥? 去GG一輩子賺150才是王道 10/23 11:18
推 senjor: 不過這邊講的會調參數跟我想的不太一樣就是,我以為的會用 10/23 11:19
→ senjor: API跟會調參數就是會知道你說的那些,但是可能是演算法或 10/23 11:20
→ senjor: 其他程度不足以到自己開發到實用API的程度這樣。 10/23 11:20
→ foxgoodboy: 樓上講這樣也是沒錯啦~~但那是比較強一點狀況 10/23 11:23
→ foxgoodboy: 比較弱的狀況 就亂調得到很高的準確率 就說自己會了 10/23 11:23
→ foxgoodboy: 那真的很傻眼 10/23 11:24
推 senjor: 這...我沒想到這種人的可能性...是我孟浪了 Orz 10/23 11:28
推 cobrasgo: c++?把python當死人了嗎(戰) 10/23 11:30
推 a1234567289: 推 真的一堆人在try參數 然後獲得很高準確度就說會了 10/23 11:37
→ a1234567289: 然後問他你調參數的道理是啥 覺得遇到什麼問題才這樣 10/23 11:38
→ a1234567289: 改變參數 結果都達不出來 QQ 10/23 11:38
→ a1234567289: 不然就發現精度不夠 一窩蜂的跑去想辦法找資料來try 10/23 11:40
推 senjor: 我還記得剛進研究所的時候,就是寫兩個loop去跑K-fold CV 10/23 11:42
→ senjor: 然後這樣去拿SVM的兩個參數,誰知道為什麼這個參數好,用 10/23 11:43
→ senjor: 就對了 (ry 10/23 11:43
推 ice80712: feature未必要用統計 機器也可以學阿 10/23 11:58
推 laba5566: 選feature多的方法幹 造feature才是難點 10/23 12:01
推 david190: 當然是這樣的阿 新的更好演算法 值得更好的硬體架構 10/23 12:03
→ laba5566: 大部分top model RF GB表現會十分近似 弄好feature出來 10/23 12:03
→ david190: 不能是 演算法要屈就現在的 硬體架構吧~ 10/23 12:03
→ laba5566: 不比搞演算法容易 10/23 12:03
推 senjor: 這讓我想到生還者預測,姓名直接被丟進去沒有太大效益 10/23 12:05
→ senjor: 但是如果整理成家族生還率的參照featrue就會有效果 10/23 12:06
推 senjor: 不過感覺這又變成類似前後端之爭的東西了,鄙視鏈重現 10/23 12:15
→ y800122155: SVM只有g/c兩個參數都能不懂原理 那10個以上怎麼調XD 10/23 13:31
推 senjor: 跑10個loop (ry 10/23 14:11
推 F14A: 之前看研究所的學長meeting,整場我就只看到他:準確率不高 10/23 15:25
→ F14A: ->改參數 or 加一堆有的沒的模型 10/23 15:25
→ F14A: ->準確率變高了ya ,有夠無言... 10/23 15:25
推 aacs0130: 推造feature才是困難的,選feature有很多統計方法 10/23 16:29
推 senjor: 我現在才知道原來選feature跟造feature居然被分成兩種了 10/23 17:01
→ senjor: 我整個老人化...以前我們說選feature就包含選自己作出來的 10/23 17:02
→ enso: 參數化也是統計的一部份... 最後會發現,會挑數據比教重要 10/23 17:38
→ francishsu: GIGO 10/23 18:00
推 Iamjkc: 滿專業的 數學還是要先打好基礎... 10/23 19:36
推 harrybbs: AI專業可以超越GG的150吧 10/23 19:46
推 Gaogaigar: 我也是覺得feature seletection跟data presentation不 10/23 20:57
→ Gaogaigar: 一樣的說o 3o 10/23 20:57
→ foxgoodboy: 印象當中最好玩的是~我問了幾個MIT的主管~ 10/24 13:01
→ foxgoodboy: 如何把分布不平均的data 變成常態分布的時候 10/24 13:02
→ foxgoodboy: 沒有一個答得出來的~~我就跟他們說 開根號乘以十 10/24 13:03
→ foxgoodboy: 其中一個聽得懂~就一直笑~ 10/24 13:03
→ Jerrynet: 教授期末調分,ㄏㄏ 10/24 13:26
→ cld123: 要挑feature也要有sample訓練啊 10/25 10:19