看板 Tech_Job 關於我們 聯絡資訊
看你想走應用還是理論面,應用面如果只是你有一個ideal想做,務實一點就是找個閉源或 開源的LLM(vLLM)架起來,Prompting調一調大部分能力可能都比你傳統模型來的好太多了。 如果是應用想做深一點之類的,大概就大金->李沐那些聽一聽,想再涉及ML一點就吳恩達-> 軒田。 如果還想要再深一點就需要涉及理論數學知識而且這時候就分面向了。 模型的部分數學會佔更重,尤其是線性代數,最多再一點點機統跟最佳化理論,現代的DL其 實反而不會太強調很硬的統計或非凸最佳化,大多假設DL在自監督後天然的就從海量數據中 提取了某些自然分佈。除非你真的有興趣到爆就可以往DL的最核心基礎理論邁進,那還會需 要一些消息論去探討模型壓縮跟模型內部學習時候的非凸優化轉換(high entropy 跟low e ntropy LLM 可能會是一個很有趣的問題)。 如果是想就業的話,我自己會覺得接下來比較熱門的面向就是GPU optimization跟LLMOps, 前者主要就是要非常懂GPU計算底層,包含如何實作GPU併行,可能同事有基礎的LLM模型你 要把這個prototype implement進某些極端Edge的環境,後者就涉及分散式伺服器架構如何 架構帶有GPU群集的分散式server用來做training跟inference,雖然說離核心LLM/DL理論很 遠,但我認為是就業市場未來最穩的。 這邊補充一下,很多人覺得AI要很硬的數學才能發Paper,但是從去年ICLR的一些收錄文章 看其實現在不少Multi Agent的應用類,關鍵在於你有很好的智能體實作想法,然後再理論 系統性的描述做消融實驗。這些不見得涉及數學知識,就是要去研究能有什麼方式系統性的 開發智能體。 差不多4醬 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.12.113.87 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1754439214.A.017.html ※ 編輯: sxy67230 (101.12.113.87 臺灣), 08/06/2025 08:18:18 ※ 編輯: sxy67230 (101.12.113.87 臺灣), 08/06/2025 08:19:01
Killercat: 我覺得你找個靠普的LLM模型前面架RAG 57.140.96.14 08/06 09:18
Killercat: 企業內部用的大概就是這樣而已了 57.140.96.14 08/06 09:18
Killercat: 再往下走都比較離實際應用較遠的了 57.140.96.14 08/06 09:18
Killercat: 企業應用就prompt 頂多再加上RAG 夠了~ 57.140.96.14 08/06 09:19
LifeDream: Fine tune 資料量要夠大,而且會有抗 39.15.72.131 08/06 12:52
LifeDream: 拒對齊的問題 39.15.72.131 08/06 12:52
LifeDream: Full pretrain 就真的建議少考慮了, 39.15.72.131 08/06 12:53
LifeDream: 那個算力還有資料量不是一般公司吃得下 39.15.72.131 08/06 12:53
LifeDream: 去 39.15.72.131 08/06 12:53
LifeDream: 更正Lora fine tune 39.15.72.131 08/06 12:54
puffycat: 模型不是問題!問題是資料要怎麼整理? 42.70.52.243 08/06 12:57
puffycat: 不是有RAG就好,都是鬼話連篇!要把資 42.70.52.243 08/06 12:57
puffycat: 料分類,有些用向量資料庫,有些用向量 42.70.52.243 08/06 12:57
puffycat: SQL…. 42.70.52.243 08/06 12:57
LifeDream: 同意樓上,真的RAG之前要先把資料整理 27.247.4.29 08/08 08:20
LifeDream: 清理好 27.247.4.29 08/08 08:20