看板 Soft_Job 關於我們 聯絡資訊
※ 引述《ckrmpuhv (阿瓜)》之銘言: : 各位板上大大好 : 小弟是後段國立科大資管碩即將畢業 ^^^^^^^^^^^^^^^^^ 恩..."後段國立科大資管",好一點的公司可能連HR那關都過不了 : 因為一些私人原因是不用當兵 : 所以論文完成後準備開始找工作 : 目前程度: : 大學學過JAVA ^^^^^^^^^^^^^^^ 要走ML,應該是要用Python吧,至少tensorflow 或是pytorch都是在python上有最多的 支持,那如果要走ML的底層,那就應該要會c++跟cuda或是opencl之類的 : 網頁跟資料庫也只有課堂學習過沒實際做小專案 : 因為對Ml有興趣 : 在碩階段期間 都是自學ML相關 : 聽過李宏毅老師的課 : 實作過他課程的作業 : Keras的一些神經網路搭建也沒捨問題 : Kaggle只參加過一兩次 排名都很爛 : 大部分的實作和論文都是跟影像辨識相關 : 最近看板上大大各式各樣建議 : 非四大四中 也不是kaggle的佼佼者 : 數學方面 線代沒學 統計學大學學過但也不熟 : 看完覺得自己很爛出去可能沒人要? 理論不行,直接自爆 但我想問一下,你是否有能力可以去推導back propagation? 或是可以用數學理解為何inception net 比 VGG16好 那甚麼是 L1 L2 constrain? 牛頓法跟gradient descent有甚麼關係勒? 你說你的論文是跟影像有關的,那懂不懂傅立葉轉換阿? : 目前都還在做ml各種模型實作 : 但看完板上很迷茫要往哪些方向學習怕找不到工作非常憂鬱 : 我不清楚該橫向發展拓別的領域 : 像是網頁、App 自己做一些小專案增加作品集 : 還是去補數學 更深入研究Ml : 又或者先去刷Leetcode打底 : 還請各位大大指教 謝謝 : ----- : Sent from JPTT on my iPhone 我自己也不是ML專業,也算是半路出家的,那因為要把ML放在MCU上, 所以去看了很多ML的paper跟文章。 ML的水很深,如果數學不行,就一定要把數學補起來,要不然人家面試問一下, 就真的倒在那邊惹。(請注意喔,我上面的問題都還只是基本題中的基本喔) 我曾經在一篇文章講過,用Keras把一個常見的模型跑起來,這個請個工讀生 都可以做到的事情,沒有必要花錢請一位工程師來做。 但是我可以告訴我主管 ,為什麼要這樣做,Learning rate要怎麼設定會比較讓 模型快速收斂,這才是我的價值。 喔~~對了,我還只是個韌體工程師喔,我的專業還是在韌體上開發演算法喔 在台灣做ML的大致上有兩種(這也是我專門做ML的學弟跟我講的)ㄎㄎ: 有問題的話也請做ML的專業大大更正 1. 拿現成的model去做 transfer learning或是改善pre-processing的方法,讓圖片 或是資料更容易讓model收斂。 很多公司都是要有馬上的功效,若是重新建立一個新的架構,那要花多少時間去 fine tune?然後要收集多少的資料去最佳化weighting? 聽說連發哥都沒在做這種事情,那就更不用期待其他一些小公司有辦法去支持這樣的 開發案。 2. 把現有的ML 模型縮小,然後可以放在嵌入式系統上。 這就跟我現在在弄的案子比較有關連,確實會需要ML的工程師,不過該工程師 最好也得知道一點嵌入式系統,這樣在執行專案上會比較有幫助。 如果真的要走ML,就請把線性代數跟統計補齊,因為deep learning只是ML中的一部分 如果可以用比較傳統的方法就可以解決的問題,為何一定要用deep learning???? 如果發現自己的數學不行,那就趕快盡早轉行。 真心不騙...... 順帶一提,其實外商比較不太重視學歷,但很重視英文,所以英文也是一項重要的技能 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.124.168.123 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1615442547.A.5D6.html
ss8651twtw: 推 03/11 14:05
tig4605246: 推這篇,我不是ML專業但常常看到套模型就說自己會ML的 03/11 14:05
tig4605246: 人… 03/11 14:05
mmonkeyboyy: 其實現在有1&2混起來做的 2才是能賺錢的XD 03/11 14:30
mmonkeyboyy: 套模型也可以啦 問題是要套對就是了 03/11 14:31
ntpuisbest: 借串問一下,我雖然懂那些基本題,可是不太清楚為何 03/11 14:32
ntpuisbest: 懂了可以知道怎麼設學習率那一塊 03/11 14:32
ntpuisbest: 一般來說不就是,太大的數字不行,就換小的試試看嗎? 03/11 14:32
ㄎㄎㄎ 其實也只是跟主管特別強調一下: "我不是只會套模型這樣的啦"XD 當然因為主管不懂deep learning,所以聽到我這樣跟他說,他喔喔喔喔 ~~~果然有價值!! (這可以算是嘴砲的最佳實證) 當然,我自認為我的程度是還不是很懂ML這塊的喔 我只是個半路出家的嵌入式韌體工程師喔 ※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:39:45
UNPRO: 推這篇 03/11 14:36
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:52:08
rereterry: 其實看要走應用還是分析,之後還可以拆分是走純數據, 03/11 15:51
rereterry: 影像,NLP,之後還可以再細分是商品,還是純模型,這塊 03/11 15:51
rereterry: 領域現在被架構的還蠻大的,像銀行體系也會是一條路啦 03/11 15:51
rereterry: ! 03/11 15:51
tay2510: ntp大會有疑問是是正常的 原po的lr的例子有點誤導了,實 03/11 16:27
tay2510: 務上都是直接用平行框架搭配一些搜尋演算法去找合適的lr 03/11 16:27
tay2510: ,但我同意跟主管解釋為什麼那個部份 03/11 16:27
沒錯,譬如說Adagrad,這種東西在tensorflow 不用自己去code 但我當初就是跟主管報告甚麼是Adagrad,以及為什麼要用Adagrad 然後主管就: 喔! 讚~~雖然聽不懂, 但感覺很厲害,然後考績就香惹 大guy4這樣 ML面試的問題千變萬化 ,也有可能面試者直接問甚麼是Adagrad阿 ? 那為何用Adagrad效果不錯? 所以我是覺得把ML的基本理論都弄懂是絕對重要的
hegemon: 香港某個女網紅也說自己在搞ML, 就套套別人的工具月薪就 03/11 16:30
hegemon: 不少了 03/11 16:30
ntpuisbest: 原來如此 03/11 16:32
cuteSquirrel: 真好 03/11 16:53
※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:12:53 ※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:21:41
CaptPlanet: 推 現在ML神棍真的多 03/11 18:38
luweber88: (學生淺見)資料工程師通常都會先用傳統ML方法試試看吧 03/11 18:39
luweber88: ?像RandomForest等方法,若演算法效率不好應該先回頭 03/11 18:39
luweber88: 從Data Level檢視/處理,用DL怒train一發通常都是最後 03/11 18:39
luweber88: 選項? 03/11 18:39
drajan: 先弄出一個可以上線的穩定系統是最難的 挑選model往往是 03/11 18:48
drajan: 比較容易的部分 大部分都會建議用最簡單的方式去做 03/11 18:49
drajan: 因為光是最簡單的方式就可以搞死你了 03/11 18:49
MoonCode: 數學不好或是沒精通原理的人都不用上班了 03/11 19:25
MoonCode: 懂不懂原理不是重點而是能不能產生價值 03/11 19:27
我其實不太懂你的點 ....原po說kaggle打得很爛 ,然後又不太懂數學, 假若你們公司 需要有即戰力的ML工程師,你敢用他嗎??????????? 我相信kaggle名次很前面的高手,對於小弟所提出的弱砲問題一定是秒殺
evan176: 不認同樓上,當你面試碰到會BERT但不知道regression和cla 03/11 19:44
evan176: ssification差別的人該怎麼辦呢?現在這樣的ML大師還不在 03/11 19:44
evan176: 少數 03/11 19:44
luweber88: 有人會Bert還分不清楚cls/reg哦xdddd 那他transformer 03/11 19:49
luweber88: 是白學了? 03/11 19:49
taffy128s: 我記得去年發哥有進CVPR, 這個也算一種吧 03/11 19:50
mmonkeyboyy: 。。現在很多是ensembling learning 03/12 01:51
mmonkeyboyy: 現在很多資料工程師反而不懂傳統都先train一發再說 03/12 01:56
iiiii: 直接問不用py,還可以學嗎? 03/12 10:11
資料降維是什麼? 這個做ML的人倘若不知道,基本上應該是.....呵呵又顆顆 PCA是很常見資料降維的手法之一 這在線性代數裡面是很基本的內容,原po沒有唸過線性代數,我會很懷疑 原po處理資料的能力在哪裡 ※ 編輯: isaacting (49.216.70.16 臺灣), 03/12/2021 10:33:37
cuteSquirrel: 主成分分析和feature engineering 03/12 11:45
exthrash: 現在沒什麼人在用PCA吧 03/12 12:18
mmonkeyboyy: 還是六種還是七種方式中的主流吧@_@~ 03/12 13:15
mmonkeyboyy: 不用py 可以學darknet哦 03/12 13:16
mmonkeyboyy: 不過現在想做好未來一點的大概要做GDL了 03/12 13:17
pot1234: 偷問一下 印象中影像的DL也滿多不傅立葉轉換直接做的吧 03/12 22:31
loadingN: 肥宅會fft能加分嗎 03/12 22:38
shownlin: 做ML線代統計重要性沒那麼大啦,模型performance好才是 03/12 23:37
shownlin: 真的 03/12 23:37
mmonkeyboyy: 線代統計我是覺得也要啦 但就看不懂再去念也行 03/13 01:54
MoonCode: 03/13 09:45
caseypie: back propagation這種大一微積分就教的東西有什麼好嘴的 03/16 23:18
j0958322080: 樓上天真了,很多人無法手算出來的 03/17 08:47
answerseeker: 都哪年了還在VGG16...都快跟SIFT一樣古董了 03/18 12:41
meRscliche: 推 03/19 00:03