看板 Tech_Job 關於我們 聯絡資訊
看完一系列文章 似乎了解AI的人不多 畢竟在浪頭上 所以大家一窩風的去炒他 → enso: 硬體架構還是得看哪一類的應用。若多為影像辨識,那gpu還是 10/23 00:22 → enso: 好用些。至於AI,也是蠻廣的,不是跑CNN就算AI。到終究還是 10/23 00:22 → enso: 統計... AI弄到最後 老實說就統計跟數學 程式只是輔助工具而已 而硬體 是進階的輔助 因為進步非常的快 所以常常今年流行的演算法 明後年馬上很少人用了 譬如說當初學的SVM的 kernel 學了幾十種 Kernel 還有混和kernel 第二年學教就不開kernel 直接交deep learning 再過一年直接變成 deep reinforced learning 也開始有簡單的ML套裝軟件出現 我同學還開發了 直接在excel上面可以用ML 套件 給商學院的人使用 至些都只是用現成的API 至於未來會不會有比較高效的演算法出現 很難說~ 所以或句話說 你今天會的API 明年可能馬上退流行或被取代掉了 而且以台灣現狀 大多都是用現成的API 調調參數 這算真的懂ML嗎? 跟幾個ML的教授跟 Hassabis 聊過 他們給我的忠告是把 數學 統計學 C++學好 因為演算法可能幾年後主流就不再deep learning了 那時候是不是又會開發出新的晶片架構 提供給新的演算用呢? 很難說~~ ※ 引述《david190 (david)》之銘言: : ※ 引述《vivian032619 (亮~被罵+掛電話惹)》之銘言: : : 朋友代po : : ------------------ : : 目前有兩個題目可以選擇,不知道哪個選擇未來工作發展比較好。 : : 1. AI的應用,比較偏純軟體 : : 利用機器學習和影像處理取代人力 : : 不用對AI原理有太深入了解 : : 花比較多時間在應用的實作。 : : 2. AI的晶片,比較偏硬體 : : 利用FPGA加速AI在影像處理的效能 : : 30%要了解AI的數學原理 : : 70%在寫硬體。 : 就我的感覺 AI領域不要切分成軟跟硬 : 現在做AI晶片除了 輝達外 還有 intel 谷歌 微軟 IBM 華為 : 為何AI被注目 跟 自動駕駛跟阿法狗 被矚目有關係 這兩個都是谷歌做出示範可行的 : 谷歌是做軟服務 而IBM微軟也是做服務的 為何軟服務的大公司會想做AI硬體? : 可以猜測 是目前現行硬體架構 已經不足續驅動AI軟件發展了 : 所以三大軟服務公司都去做硬體是必然的 順便搶AI硬體架構決定權 : 誰能拿下AI硬體架構決定權 代表誰之前的AI軟硬體研發能最小損耗不需推倒多數重來 : 所以做AI晶片的公司 本身就是會發展AI軟件跟服務的公司 這應該是不可分的 : 我相信intel如果能搶下AI硬體架構 也會順便攻進AI軟服務的 因為這整套一起發展的~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 81.106.81.16 ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1508727557.A.523.html
senjor: 我覺得這就是有點看不起應用層了,選好Featrue不見得比做 10/23 11:03
senjor: kernel簡單,不如說好的featrue改善程度遠大於改kernel 10/23 11:03
senjor: 很多時候還會選不同kernel來驗證這個featrue是真的有效的 10/23 11:04
senjor: 這也算是ML的鄙視鏈吧... 10/23 11:04
foxgoodboy: Featrue通常是靠統計哪塊去選~不然你是怎麼選feature? 10/23 11:05
foxgoodboy: 統計不夠強根本無法選出合適的features 10/23 11:07
foxgoodboy: 只能用try的 目前台灣好像都是用try的 10/23 11:07
senjor: 應該說ML有很多面向,用現成的API調參數只是一個選擇,每 10/23 11:09
senjor: 人著重的面向都不同,不代表用現成的API調參數就是不懂ML 10/23 11:10
foxgoodboy: 因為API很方便 所以國外蠻多做ML的公司 面試 10/23 11:11
foxgoodboy: 就直接考你公式推導 還有每個API參數的特性 10/23 11:12
foxgoodboy: 適用於那種data 會考的你不要不要的~~~ 10/23 11:13
foxgoodboy: 因為他們就怕你只會調參數 但不知道它的原理 10/23 11:14
senjor: 這方面我就沒涉獵了,受教了。 10/23 11:14
foxgoodboy: 最好笑的 我有一個同學直接跟面試官說 我會調參數就好 10/23 11:16
foxgoodboy: 面試官直接回答他 你原理都不懂 你確定你會調? 10/23 11:16
hsnuyi: 您認真了 跟GG版說這些做啥? 去GG一輩子賺150才是王道 10/23 11:18
senjor: 不過這邊講的會調參數跟我想的不太一樣就是,我以為的會用 10/23 11:19
senjor: API跟會調參數就是會知道你說的那些,但是可能是演算法或 10/23 11:20
senjor: 其他程度不足以到自己開發到實用API的程度這樣。 10/23 11:20
foxgoodboy: 樓上講這樣也是沒錯啦~~但那是比較強一點狀況 10/23 11:23
foxgoodboy: 比較弱的狀況 就亂調得到很高的準確率 就說自己會了 10/23 11:23
foxgoodboy: 那真的很傻眼 10/23 11:24
senjor: 這...我沒想到這種人的可能性...是我孟浪了 Orz 10/23 11:28
cobrasgo: c++?把python當死人了嗎(戰) 10/23 11:30
a1234567289: 推 真的一堆人在try參數 然後獲得很高準確度就說會了 10/23 11:37
a1234567289: 然後問他你調參數的道理是啥 覺得遇到什麼問題才這樣 10/23 11:38
a1234567289: 改變參數 結果都達不出來 QQ 10/23 11:38
a1234567289: 不然就發現精度不夠 一窩蜂的跑去想辦法找資料來try 10/23 11:40
senjor: 我還記得剛進研究所的時候,就是寫兩個loop去跑K-fold CV 10/23 11:42
senjor: 然後這樣去拿SVM的兩個參數,誰知道為什麼這個參數好,用 10/23 11:43
senjor: 就對了 (ry 10/23 11:43
ice80712: feature未必要用統計 機器也可以學阿 10/23 11:58
laba5566: 選feature多的方法幹 造feature才是難點 10/23 12:01
david190: 當然是這樣的阿 新的更好演算法 值得更好的硬體架構 10/23 12:03
laba5566: 大部分top model RF GB表現會十分近似 弄好feature出來 10/23 12:03
david190: 不能是 演算法要屈就現在的 硬體架構吧~ 10/23 12:03
laba5566: 不比搞演算法容易 10/23 12:03
senjor: 這讓我想到生還者預測,姓名直接被丟進去沒有太大效益 10/23 12:05
senjor: 但是如果整理成家族生還率的參照featrue就會有效果 10/23 12:06
senjor: 不過感覺這又變成類似前後端之爭的東西了,鄙視鏈重現 10/23 12:15
y800122155: SVM只有g/c兩個參數都能不懂原理 那10個以上怎麼調XD 10/23 13:31
senjor: 跑10個loop (ry 10/23 14:11
F14A: 之前看研究所的學長meeting,整場我就只看到他:準確率不高 10/23 15:25
F14A: ->改參數 or 加一堆有的沒的模型 10/23 15:25
F14A: ->準確率變高了ya ,有夠無言... 10/23 15:25
aacs0130: 推造feature才是困難的,選feature有很多統計方法 10/23 16:29
senjor: 我現在才知道原來選feature跟造feature居然被分成兩種了 10/23 17:01
senjor: 我整個老人化...以前我們說選feature就包含選自己作出來的 10/23 17:02
enso: 參數化也是統計的一部份... 最後會發現,會挑數據比教重要 10/23 17:38
francishsu: GIGO 10/23 18:00
Iamjkc: 滿專業的 數學還是要先打好基礎... 10/23 19:36
harrybbs: AI專業可以超越GG的150吧 10/23 19:46
Gaogaigar: 我也是覺得feature seletection跟data presentation不 10/23 20:57
Gaogaigar: 一樣的說o 3o 10/23 20:57
foxgoodboy: 印象當中最好玩的是~我問了幾個MIT的主管~ 10/24 13:01
foxgoodboy: 如何把分布不平均的data 變成常態分布的時候 10/24 13:02
foxgoodboy: 沒有一個答得出來的~~我就跟他們說 開根號乘以十 10/24 13:03
foxgoodboy: 其中一個聽得懂~就一直笑~ 10/24 13:03
Jerrynet: 教授期末調分,ㄏㄏ 10/24 13:26
cld123: 要挑feature也要有sample訓練啊 10/25 10:19