推 kmd: 都考慮 M4 Pro 了,記憶體不打算加滿嗎? 07/18 02:55
推 greg7575: 不缺錢當然上pro核心啊。 07/18 06:50
→ idletime: 第一個 過保後再來擴充SSD 07/18 06:50
推 timTan: 覺得跑llm 要 m4 max . Mac mini 我體感是不夠快。但如果 07/18 08:01
→ timTan: 是體驗的話倒是沒問題。 07/18 08:01
新增whisper用途跟應用場景比例
想確認我這樣的需求要以CPU為重,還是 RAM,還是GPU?
預算大概就是3最高了,再上去有點爆了
謝謝各位
※ 編輯: signal180 (59.125.101.58 臺灣), 07/18/2025 10:17:18
推 chita0258: RAM>SSD>CPU/GPU, RAM決定能跑的模型大小 07/18 11:28
→ signal180: 那跑請問機器學習模型呢? 順序會是如何? 07/18 11:34
→ signal180: 因為目前還是ML會多於 LLM 一些。LLM 比較像是個人試 07/18 11:38
→ signal180: 驗部署玩玩看;ML就是工作會用到 07/18 11:38
推 chita0258: M4 32RAM夠用, SSD 是避免ML訓練外接I/O出問題 07/18 12:59
→ crimsonmoon9: 要跑訓練的話要看你的dataset多大 07/18 13:23
推 Bambe: 要LLM當然是RAM越大越好,32G ram根據我m2pro跑32b模型還算 07/18 13:46
→ Bambe: 勉強可以跑,速度可接受 07/18 13:46
→ signal180: 目前資料量最大不超過百萬筆;特徵最高幾千筆,因為有 07/18 13:47
→ signal180: 可能是文字或圖片,但大部分情況是不超過100筆 07/18 13:47
→ Bambe: 但要上到40b就有點喘了,要重開機釋放記憶體才能跑 07/18 13:47
推 pc1234: SSD可以自行升級了 07/18 14:16
推 KINGWAP: 玩llm 64gb dram 是基本款 07/19 04:49
→ KINGWAP: 要省預算的話 可以二手 07/19 04:49
推 keeper036: 丐版 Studio 07/19 14:20
→ timTan: 你的預算太低了。 Ram 覺定能跑的模型,GPU 決定速度 07/26 13:46
→ timTan: 如果只是要能動,就想辦法把 RAM 拉高。 07/26 13:46
→ timTan: 上面有 ram 的計算機 07/26 13:48