推 ricocheng: 用MBP看Youtube當然是記憶體越高越順 04/09 06:03
推 az0102: 用的到最划算,用不到不划算 04/09 08:04
推 nlnlnl: 問就是8g神教 04/09 09:33
推 shasen1236: 蘋果應該出個4GB NEO,我想看那群怎麼表演 04/09 09:35
推 domonsan: 哥,要升級到64GB還要強制升級CPU,14寸MBP要破十萬了 04/09 09:47
→ domonsan: 但是拿來跟顯卡比還是很香 04/09 09:47
→ Obama19: 你以為庫克傻了嗎 04/09 10:12
→ cancelpc: 顯卡可以跑AI,遊戲 04/09 14:38
推 catcat5566: 買什麼M5 pro 64G, M1 8G就夠用了 04/09 17:24
推 SaberMyWifi: 你以為CPU不用加價嗎=.= 04/09 21:51
推 Bustycat: 敢質疑廚子的刀工? 04/09 22:11
→ Supasizeit: 我5090跑31B跑不動啊 04/09 22:13
推 morrislek: 怎麼不買Mac mini 04/10 09:27
→ jjjj222: 有用到都划算, 沒用到都浪費 04/10 10:30
推 johnpisces2: 10w就直接買GB10比較實在吧 04/10 11:40
推 hpk89: gb10比m5 max還慢,然後只能拿來做AI, mbp實用多了 04/10 11:50
推 ch010062: 同樣有5090這次也要買m5 pro 64G來玩玩 04/10 12:21
推 rogergon: 我就在想,M5 Max 128G會不會更好一些 04/10 13:31
→ rogergon: GPU x2, memory bandwidth x2, price x1.8 04/10 13:37
→ Supasizeit: Gemma4再怎麼神也沒到能取代Claude 如果可以我就衝Ma 04/10 14:00
→ Supasizeit: x128 04/10 14:00
推 Shigeru777: 你不會想用 MBP 長時間跑 AI 風扇&廢熱夠你受的 04/10 14:03
→ Shigeru777: 偶爾用還好 長時間運行 我等 Mac Studio 04/10 14:03
→ Supasizeit: LLM一般運行是一陣一陣的還好吧 不是在跑訓練沒差 04/10 14:33
推 dsin: 有agent跑全年無休是可能的 04/10 15:18
→ dsin: Claude長期超大用量,是情況任務用本地端是可以省錢的 04/10 15:21
→ dsin: 視 04/10 15:22
推 xoy: M1時代的Max就有64GB RAM可以選,想用的隨時都有得選,就沒 04/10 15:47
→ xoy: 有很普遍 04/10 15:47
推 domonsan: Claude再怎麼神也不是本機AI,搭配Gemma 4本機AI其實是 04/10 16:44
→ domonsan: 很好的組合,如果128GB內存可以同時跑LLM跟算動畫算圖 04/10 16:44
→ domonsan: 根本AI財富自由,雖然速度輸nVidia,但一個能做多工 04/10 16:44
→ domonsan: 另一個連跑一個就很喘的爽度還是有差 04/10 16:44
推 domonsan: GB10我不太熟,不過好像是跑Linux? 而且記憶體頻寬好像 04/10 16:52
→ domonsan: 輸M5Max不少? 04/10 16:52
推 hpk89: GB10跑中小模型還可以,31B/35B以上的就很喘,記憶體頻寬 04/10 18:39
→ hpk89: 太少 04/10 18:39
→ sinclaireche: 當server跑Linux有差嗎 GB10串第二台效益會最大化 04/10 18:57
推 domonsan: 樓上,消費機當然跟消費機比啊,拿 Server 串聯來跟單 04/10 19:31
→ domonsan: 機比,這根本是張飛打岳飛,基準點都不一樣怎麼比... 04/10 19:31
→ sinclaireche: gb10的dgx spark體積不是 server 04/10 20:14
推 johnpisces2: 但m5 max 128g的價格快可以買兩台了 頻寬好大R 04/10 21:10
推 domonsan: 哥,你要頻寬跟 M5 Max 差不多,起碼要串兩台 GB10,預 04/10 22:20
→ domonsan: 算要當當 20 萬以上看吧,而且 Linux 門檻高,買來基本 04/10 22:20
→ domonsan: 就是當純 AI 運算機,論日常多工跟一般人的上手度,Mac 04/10 22:20
→ domonsan: OS 還是實際多了吧 04/10 22:20
→ sinclaireche: Linux門檻很低了 要自己跑AI已經不是一般人 04/10 22:29
推 slein: 真要跑AI , Linux環境絕對是最佳選擇 04/10 23:55
推 hpk89: 自己跑AI哪有什麼門檻,你跟cc或codex說, 我要在這台電腦 04/10 23:55
→ hpk89: 跑本地gemma4-e4b, 含環境偵測和設定15分鐘全自動安裝到好 04/10 23:55
→ hpk89: ,你只要會按接受就可以,不會用還附帶教學,我阿母都會 04/10 23:55
推 domonsan: 其實 MacOS 跑 Gemma 4 也很簡單啊,用 LM Studio 下載 04/11 00:24
→ domonsan: 好模型點一下就搞定了xD,Linux 的自主性很高真的無庸 04/11 00:24
→ domonsan: 置疑,但我就是個一般人,還是讓我舒舒服服地用 Mac 或 04/11 00:24
→ domonsan: Windows 吧QQ 04/11 00:24
→ johnpisces2: 其實mac底層是unix,兩邊用起沒有差多少.. 04/11 00:30
→ yangwen5301: 差很多,Linux 自由很多 04/11 16:06
推 domonsan: 昨天大家還在討論,結果剛剛一堆m5 pro跟m5max的產品都 04/11 21:18
→ domonsan: 暫無供應了,現在是恐慌性收購蘋果產品嗎?!?! 04/11 21:18
→ domonsan: 搞錯了哈哈… 04/11 21:20
推 Bustycat: LM Studio現在沒辦法跑MLX的Gemma 4 04/12 13:18
→ domonsan: 樓上,有啦,快去下載來玩! 04/18 01:34