看板 Marginalman 關於我們 聯絡資訊
看隔壁電蝦 嚇死寶寶 AI的嗎也太扯 現在連去二手版都很難找到多的SSD 哭了 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.98.108 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1767086289.A.B09.html
walter741225: AI就無限收記憶體 12/30 17:19
mikenekolove: 我只有80G記憶體 80T硬碟 12/30 17:19
walter741225: 真的超猛 12/30 17:19
windowsill: 靠杯這麼多 你拿來幹嘛 12/30 17:20
windowsill: 我也才用64而已 12/30 17:21
tsairay: 就跑AI伺服器會用到啊 12/30 17:23
emptie: 就amd的怪東西 12/30 17:25
emptie: 但確實應用場景不是很多 12/30 17:25
emptie: 他的內顯算力不高,就只有對顯存敏感但沒那麼需要高性能 12/30 17:26
emptie: 的ai應用用得上 12/30 17:26
emptie: 誒 你說的是單條的喔 那 12/30 17:27
windowsill: 沒關係 現在更急的是ssd唉 12/30 17:27
mayolane: 數字很大很爽可以答首羌 12/30 17:28
h0103661: deepseek都要1.3tb記憶體才能跑了,你就想想gemini那些 12/30 17:31
h0103661: 要多少 12/30 17:31
walter741225: 說到顯存 AMD那個AI MAX 395+ 12/30 17:31
walter741225: 不管是迷你電腦 還是掌機 都出了128GB RAM的模式 12/30 17:31
walter741225: 這個到底預期要分配多少記憶體給內顯得阿 12/30 17:31
windowsill: 我只能說AI可真害人不淺 12/30 17:33
emptie: 看amd的ppt是寫 96 vram +16 shared + 16 cpu 12/30 17:36
emptie: 所以極限112的樣子 12/30 17:36
emptie: 一些比較大的語言模型可以塞進去 12/30 17:37
h0103661: 112是蘿莉捏,ds 1.3tb,kimi 2tb,glm 700gb,只能跑 12/30 17:39
h0103661: 跑qwen之類的小模型 12/30 17:39
windowsill: 高端局比不了 12/30 17:41
emptie: 那qs 12/30 17:41
peter6666712: 跑酪梨 12/30 17:42
lovez04wj06: 講白的就是把大腦的東西塞進去記憶體了,以往是用硬 12/30 17:43
lovez04wj06: 碟儲存,但是太慢了。 12/30 17:43
lovez04wj06: 我記得之前AI其實是SSD先漲的 12/30 17:44
windowsill: 差不多 12/30 17:46