看板 nb-shopping 關於我們 聯絡資訊
感謝板友討論 我需要更新一台筆電想跑本地LLM,處理一些個人文件。 若有大大用3080Ti/4090/5080跑本地LLM使用心得,能分享VRAM占用與生成速度的差異嗎? 1. 先補上一些訂製機器的資訊: 機械師曙光 16Pro (3070ti-16G) 的實測來源, 對於這台訂製機規格有疑慮的可以參考B站評測 https://www.bilibili.com/video/BV1SZ421v7JU/ 天選5pro/4060-16G/ 的資訊來源是y大提供的,請見 #1cXsfDx2 (nb-shopping), 另一位g大有加入討論,看他們有沒有當時的資訊可以提供 不過我看4060規格偏弱,台灣也找不到這些訂製筆電,可能選項只有3080Ti/4090了 2. 4090筆電都是配13-14代Intel CPU,只是先前13-14代桌機CPU有縮缸的災情, 有些型號是改封裝放進筆電,請問要注意哪幾款Intel的筆電CPU? BIOS更新是否能解決縮缸不穩定問題? 3. 想請教大家關於 二手CJS筆電 報價的意見: 最近收到 某a版友要賣 R9-5900HX+ RTX3080-16GB (165W)+ DDR4 16GB,開價4萬元 2026年買二手3080+DDR4的CJS的舊模具機器要4萬,是否有更好選擇? ※ 引述《eternal111 (eternal111)》之銘言: : > 預算範圍 (禁填不限) 4萬 : : > ①用途 跑本地LLM 20-30B ②常用軟體 AI跟Coding : : > ①攜帶頻率 一個月1-2次 ②使用場所有無插座 有 : : > ①使用國境 ②如在台使用請寫地區台灣 : : > ①螢幕尺寸範圍 ②外觀偏好 16-18吋,3kg以下 : : > 是否 必須內建光碟機 否 : : > 補 充 項 目 : 我的四代intel筆電需要更新了,目前在找二手電競筆電 : 我AI模型訓練跟使用的本地LLM需要16GB VRAM,目前鎖定二手R3080Ti-16GB筆電 : 請問筆電蝦的大大有沒有推薦的機型? 這些機型要注意什麼? : 選手: : MSI GE76 HX, Razer Blade 17 (2022), : 有液金散熱 Alienware x17 R2跟ASUS ROG SCAR 17 SE : 啟動一些特規筆電:机械师曙光16Pro 3070ti-16G跟天選5pro 4060 16G,但我找不到賣場 : 我考慮有沒有需要買到二手4090筆電,希望能分享一下舊機目前的合理購入行情 : 若有大大近期剛從3080Ti升級至4090/5080,請分享本地AI使用心得,感謝! : -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.168.180.192 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/nb-shopping/M.1770559718.A.849.html ※ 編輯: eternal111 (1.168.180.192 臺灣), 02/08/2026 22:23:30 ※ 編輯: eternal111 (1.168.180.192 臺灣), 02/08/2026 22:32:36
gbcg9725: https://tinyurl.com/2w5xhuct 39.10.17.145 02/08 22:39
gbcg9725: 這是桌機版本的顯卡 39.10.17.145 02/08 22:40
gbcg9725: 筆電4090~=桌機4070ti 筆電5090 ~=桌機 39.10.17.145 02/08 22:44
gbcg9725: 5070ti 39.10.17.145 02/08 22:44
gbcg9725: 或4089 39.10.17.145 02/08 22:46
gbcg9725: 4080 39.10.17.145 02/08 22:46
感謝g大資訊 對了,那台訂製的天選5pro,你還有紀錄嗎?
freeunixer: 直接說結論,用 win +rtx 的筆電, 60.250.90.238 02/08 22:46
freeunixer: 你最多只能跑 14b 4bit 的模型. 60.250.90.238 02/08 22:46
freeunixer: 想跑 30b 的 4bit 模型,買 mac+ram 去 60.250.90.238 02/08 22:47
gbcg9725: 16g vram真的跑不了什麼大模型,太小了 39.10.17.145 02/08 22:48
freeunixer: 不要浪費時間在期待什麼神蹟出現了 60.250.90.238 02/08 22:48
F大好兇喔 剛好有LLM給我這最新資訊,桌機RTX 5080-16GB跑各種最新的LLM models Sorry,您的資訊要更新囉 http://tiny.cc/q6py001 現在MoE架構當道,且模型壓縮能力又提升了 基於最新數據的結論: 16GB VRAM可以跑Q4後的14-30B model 不過筆電版的N卡速度又有些差異,還希望版友可以提供實際使用的數據,感謝! ※ 編輯: eternal111 (1.168.180.192 臺灣), 02/08/2026 23:43:29
gbcg9725: 上面已經告訴你對應的性能了直接看就好 39.10.17.145 02/08 23:44
gbcg9725: 根本就不存在16g的筆電4060 39.10.17.145 02/08 23:45
gbcg9725: 你可以直接問那位版友 39.10.17.145 02/08 23:50
他好像也沒資料 或許有吧,對岸不少二線廠,例如3070Ti就有16GB的版本 我猜量不多,所以現在都買不到了
gbcg9725: 我只玩ai 繪圖/影片沒玩llm,已經把筆 39.10.17.145 02/08 23:56
gbcg9725: 電都脫手轉向桌機了,可用的ram/vram不 39.10.17.145 02/08 23:56
gbcg9725: 在同一個等級 39.10.17.145 02/08 23:56
gbcg9725: 筆電跑這個太痛苦了 39.10.17.145 02/08 23:57
gbcg9725: 玩llm mac確實是個好選擇 39.10.17.145 02/09 00:02
MAC好像是個不錯的選擇 看看現在DDR5價格QQ 高規的MBP好像變香了! ※ 編輯: eternal111 (1.168.180.192 臺灣), 02/09/2026 00:09:37