推 wellonguy6: 同意 12/02 01:42
推 meatybobby: 需求量差很多啊 CUDA就NVIDIA最缺人 其他家用N的框架 12/02 01:43
→ meatybobby: 除非運算量有大到要去優化CUDA的 但那種一定更少 12/02 01:43
所以少到一比十?
若真無需優化..那這樣與做網頁都用.net框架一樣 不用五年就爛到翻
推 meatybobby: AI算新產業 有做起來到需要優化運算的 只有十分之一也 12/02 01:49
→ meatybobby: 合理吧 12/02 01:49
早年windows編程聘多少比例之人優化效能 ?
十年前機器視覺 聘多少人優化計算?
→ meatybobby: 現在主流的AI框架Tensorflow Pytorch都很成熟了 12/02 01:50
→ meatybobby: 一個是Google在維護 另一個是Facebook在維續 算很穩吧 12/02 01:51
所以說這些在做應用之公司 只要靠框架就可
那就是公司間沒甚差異性
看看 做網頁 只要.net就可以 那利潤怎樣 大家很清楚
→ meatybobby: 我看懂樓主想表達的意思了 確實現在AI做起來的不多 12/02 01:53
→ meatybobby: 但現在硬體的進步也讓需要優化的運算量門檻提升了 12/02 01:55
噓 justin1943: 你應該不是在業界 12/02 02:54
沒錯 本人確實不是在台灣業界
推 a000000000: 之前看過某台廠在徵(低薪)大數據專員 結果 12/02 02:56
→ a000000000: 說穿惹只是在作excel統計資料而已 12/02 02:56
→ a000000000: 開缺的人不懂隨便扯 職缺內容當然也是亂七八糟 12/02 02:57
推 kkenex: 推 12/02 02:57
推 Morphee: 其實很多人在優化 只是不是優化CUDA 幫敵人磨刀幹嘛 12/02 03:25
優化CUDA本身只有輝達才有辦法 太多黑盒部份
但深度學習 不需要優化用CUDA寫的"函式庫層"
(這牽扯到CUDA架構 算法特性 目標模型 題目質實)
而只聘人在上層改模型 湊曲線
說這真的有甚搞頭 我是不太信 根本是還在搞原型吧
※ 編輯: KILLE (24.5.126.55), 12/02/2018 03:41:33
→ vesta9: 不知所云。應用的下一層是 tensorflow 等的開發框架,不是 12/02 06:53
→ vesta9: cuda。不管是效果還是效率的優化對象不會是 cuda 12/02 06:53
推 dworld: 大推,你講是內行人會的,這篇大概還有很多人看不懂 12/02 07:51
推 sdyy: 瓶頸不在那啊 難不成車廠要先會做好輪胎才能開發引擎 12/02 08:33
→ sdyy: 同意vest講的 12/02 08:34
推 hakkacandy: 是誰看不懂啊......推 vesta 12/02 08:46
→ hakkacandy: 都用框架,厲害的廠商可以賣你元件一套賣40萬啦 12/02 08:48
推 Fireis556: 有趣 12/02 08:48
推 hakkacandy: 而且很多公司弄ai是在改善自己流程,不是把應用拿去 12/02 08:57
→ hakkacandy: 賣 12/02 08:57
推 NUKnigel: 推!一年後再來看這篇 12/02 09:22
推 batista1980: 看不懂哭哭,感覺是好文 12/02 09:25
→ DrTech: 不是在業內吧,機器學習實際上,不一定要深度學習。不一定 12/02 10:00
→ DrTech: 扯到CUDA 12/02 10:00
推 DrTech: AI 工作,等於CUDA工作嗎? 12/02 10:03
推 guest0079: 又是一篇學生文 還是外國學生文 可能跑去大陸唸書了 12/02 10:26
推 guest0079: 屁孩寫文章跟大老闆一樣都一堆文句 12/02 10:28
→ guest0079: 問句一堆 什麼屁也沒放 12/02 10:29
噓 wixter: 完全巷子外的,最大瓶頸明明是model架構 12/02 10:29
沒錯 還卡在模型上啊
所以還沒獲利啊 當然不聘人去優化下層CUDA
這不就是泡沫
推 guest0079: 就好像在二十年前質疑網路是泡沫 理由是網卡公司開的 12/02 10:33
→ guest0079: 缺極少 12/02 10:33
推 michaelgodtw: 某英特爾出來的,到處說以後不用工程師,產線了, 12/02 10:33
→ michaelgodtw: 完全ai 12/02 10:33
→ michaelgodtw: 然後上面就聽的很高興,你講的跟他完全不一樣,人 12/02 10:34
→ michaelgodtw: 家說他英特爾出來的說 12/02 10:34
→ codotsun: 看完文章只想問... 你真的有碰過AI嗎... 12/02 10:41
討論枝葉之繁貌可能性 對根之疏淺略之不提?
→ aiueokaki: 很多都有賺錢了好嗎 而且為啥關鍵字是cuda… 12/02 10:49
不然要用OpenCL DirectCompute當指標也可以 只是會更慘
※ 編輯: KILLE (24.5.126.55), 12/02/2018 10:53:04
噓 Murasaki0110: 又是一個鍵盤ai專家 12/02 10:52
推 w60904max: 現在train的運算速度不是瓶頸 12/02 10:59
噓 vvind: 你太執著在獲利前提是需要去改底層 12/02 11:01
沒有啊
獲利後再改底層 是極正常
所以就是還未獲利嘛 不然怎CUDA缺與深度學習不成比例
※ 編輯: KILLE (24.5.126.55), 12/02/2018 11:04:15
推 simpleplanya: 個人覺得滿有道理的 12/02 11:13
推 yiefaung: 熱錢湧入 大部分的人當然先卡位先賺 12/02 11:36
噓 Murasaki0110: 吐槽點太多了啦。你要比也比成長幅度,cuda和dl比 12/02 11:42
→ Murasaki0110: 職缺數? 12/02 11:42
→ Murasaki0110: cuda本來就是通用框架,當然很多和dl無關,底下還 12/02 11:43
→ Murasaki0110: 有cudnn ok? 12/02 11:44
噓 blackrays: 莊董 12/02 12:00
推 lovebridget: 後金本位經濟型態本來就建築在泡沫上 12/02 12:21
→ lovebridget: 世界最大公司亞馬遜都還沒獲利 還是世界最大 12/02 12:22
→ lovebridget: 錢是無限的印 能一直吸引投資進來 錢就能無限賺 12/02 12:23
推 josey822000: 樓主在討論的是跟你們工程師不同層級的問題 12/02 12:28
推 zerobx: 全世界AI跟台灣AI有沒有起來 這不一樣吧? 12/02 12:40
推 vesta9: 真要討論是不是泡沫,也是討論深度學習有沒有極限。從 cud 12/02 12:55
→ vesta9: a 職缺看出泡沫??外星層級的討論 12/02 12:55
→ snoopy790428: 先說明一下ai定義好嗎 每個大老闆都在唬爛 12/02 16:36
→ matyih: 小弟剛好就是做cuda/ML的 關鍵字有cuda/openCL的灣區工作 12/02 16:47
→ matyih: 搜到爛掉 就是NV,MS,Intel, AMD跟百度有一些 剩下都是新 12/02 16:47
→ matyih: 創或是很少的seinor職位,因為真的不需要這麼多人做底層。 12/02 16:47
→ matyih: 。 12/02 16:47
→ matyih: Don't reinvent the wheel 12/02 16:48
推 popmentos: 看到這篇有點感慨,因為最近我才明白自己只是API工程師 12/02 17:01
推 LinuxKernel: 泡沫沒錯,但這樣看不太對 12/02 18:58
→ egnaro123: 原po弄錯了,寫程式的也不會一開始就最佳化,一定是先 12/02 21:13
→ egnaro123: 先對,等全部規格完成,再看那些再最佳化,順序根本反了 12/02 21:14
推 eknbz: 我懂原PO想說甚麼:走到後期tuning效能,最佳化的公司比例甚 12/02 23:01
→ eknbz: 少,大多還在前期prototype, model階段 但AI已經喊得震天價 12/02 23:03
→ eknbz: 響 認為這樣算是吹泡泡 12/02 23:04
→ eknbz: 傳統消費電看法的確要到後期調教性能才算接近商業化產品 12/02 23:07
噓 Murasaki0110: 產品落地不會是靠cuda,起頭就錯了 12/02 23:08
→ eknbz: 有的AI應用是比想法創意,至於框架和實現就站在google nvid 12/02 23:10
→ eknbz: 的肩膀上 有的是拼效能,這種就要最佳化 兩者無法相提並論 12/02 23:12
推 eknbz: 結果我想說的下一篇blue大就講的差不多了... 12/02 23:16
推 a3294814: cuda 不就只是用來做gpu平行運算用嗎 優化算的更快 還不 12/02 23:22
→ a3294814: 如把model壓縮-.- 況且還要確認你演算法精度夠高 12/02 23:22
→ matyih: 樓上Cuda還是很重要喔,只是cudnn都幫你寫好了(裡面由cud 12/03 02:18
→ matyih: a/ptx碼組成) 沒有的話普通人根本沒有辦法有效訓練模型 12/03 02:18
→ sachung28: pandas在github主要開發者(commits>200)也才10人 12/03 05:13
→ sachung28: 其他AI主流套件也差不多 核心開發者都少 一般都是會使 12/03 05:17
→ sachung28: 用就好 其實除非強到會飛天 不建議改底層算法 因為寫出 12/03 05:17
→ sachung28: 來bug不見得少 效能不見得好 12/03 05:17
推 followwar: 可能對他們而言 找人改底層算法不如加一片GPU... 12/03 12:05
推 krizarlid: 因為直接套Framework,懶得優化 12/11 18:19
→ krizarlid: 東西能動能炒新聞就好 12/11 18:19