看板 PC_Shopping 關於我們 聯絡資訊
https://reurl.cc/18m4VQ AI 將不需要大量記憶體 Google 發表 TurboQuant 壓縮技術 記憶體加價潮或可終結 作者 Lawton 發佈日期 2026-03-26 Google 最新發表 TurboQuant 記憶體壓縮技術,大幅降低人工智能運算所需硬件資源,觸發市場對儲存設備需求大減恐慌。美股儲存晶片類股股價周三應聲暴跌,惟多間華爾街投行看好效率提升將帶動更大規模應用,呼籲投資者趁機吸納。 壓縮技術效能驚人 Google 發表名為 TurboQuant 記憶體壓縮演算法,市場憂慮儲存硬件長期需求會大幅減少,觸發相關資產拋售潮。Google 團隊指出 TurboQuant 可在不影響準確度下,將大型語言模型執行時佔用快取記憶體減少最少 6 倍。開發團隊成功將鍵值快取無損壓縮至 3-bit,利用 Gemma 及 Mistral 等開源模型測試時,發現在 Nvidia H100 顯示卡上運作效能對比未量化 32-bit 方案最高提升 8 倍。目前人工智能軍備競賽極度依賴硬件規模擴張,任何削減實體記憶體採購量技術進步,原文出自 unwire.hk, 均足以令估值偏高晶片類股面臨沉重沽壓。此項新技術將於下月 ICLR 2026 大會上正式發表。 等等黨要勝利了? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.140.155.127 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1774530364.A.002.html
mqhung: 好,要上128G可以少花一點錢了 114.34.228.170 03/26 21:10
UniversalGod: 爽啊~~~記憶體廠跌死你 101.10.251.115 03/26 21:15
pphyy5844548: 我覺得企業會賣更多… 123.252.75.84 03/26 21:15
lc85301: 減少 6 倍那不就能跑 6 倍大的模型了嗎 36.231.102.42 03/26 21:16
kaj1983: 壓縮後可以裝的更多了 218.166.17.80 03/26 21:16
saiboos: 記憶卡蛙... 219.71.144.68 03/26 21:17
davidex: 不可能 絕對不可能 36.230.8.61 03/26 21:17
whizz: 爽啦 記憶體本來就應該便宜 61.223.6.35 03/26 21:17
leviva: google竟然能間接拯救消費市場?220.129.138.108 03/26 21:19
MK47: 真假 估狗有這麼猛喔 111.83.69.136 03/26 21:22
superRKO: 減少6倍不就代表可以裝更多了嗎?220.135.222.131 03/26 21:22
knight72728: google我的神,推動地球進步的英雄125.230.216.168 03/26 21:27
a27588679: 哇靠 大場面來了 180.177.33.135 03/26 21:29
shokotan: 爛美光可以重新開賣記憶體了嗎 = = 111.250.128.86 03/26 21:32
UniversalGod: 的跌死你!!! 101.10.251.115 03/26 21:34
CJhang: 可以花六倍 一樣漲 101.12.86.7 03/26 21:34
brianuser: 語言模型受惠,那影片那些呢 218.164.20.35 03/26 21:35
sss870192: 威剛 美光 三星 :幹 114.36.121.77 03/26 21:36
UniversalGod: 多跌一些www 101.10.251.115 03/26 21:40
wind183: 壓縮技術是拿來跑更大的模型不是拿來降 101.14.4.0 03/26 21:41
wind183: 價用的 101.14.4.0 03/26 21:41
aa1477888: 顆粒廠有什麼好幹的 又沒擴廠根本不虧 218.35.220.53 03/26 21:42
oopFoo: 這個東西主要是vector search,影響有限 58.114.66.74 03/26 21:43
bill6613: 能壓縮更多不代表可以裝更多,代表AI基 211.20.112.29 03/26 21:46
bill6613: 建更激烈不是 211.20.112.29 03/26 21:46
kuninaka: 只會越用越多而已 36.239.82.97 03/26 21:48
kuninaka: 因為我要看雪山狐狸 36.239.82.97 03/26 21:48
pita30: 應該是覺得能跑更大模型而不是少買記憶體 219.69.115.71 03/26 21:49
pita30: 吧 219.69.115.71 03/26 21:49
vin312789: 誰跟你說這樣就不會漲了 27.240.40.251 03/26 21:49
baddaddy: 記憶體需求會更多,以前做不到的事,現 36.231.180.62 03/26 21:50
baddaddy: 在ai能做到更多事,用量會變更大 36.231.180.62 03/26 21:50
baddaddy: 傻傻地 36.231.180.62 03/26 21:50
XiaoLi: 壓縮六倍=會用更多的資料訓練 114.34.216.177 03/26 21:52
XiaoLi: 根本不會減少記憶體需求吧 114.34.216.177 03/26 21:52
ctes940008: 好哦,變六倍效能喔,繼續軍備競賽。 36.237.110.244 03/26 21:52
ctes940008: 一樣是有多少包多少 36.237.110.244 03/26 21:52
sm981512: 爽啊 36.239.79.205 03/26 21:54
w1222067: 這不是昨天就在說嗎 61.224.23.191 03/26 22:07
w1222067: 感覺 壓根不影響 漲價XD 61.224.23.191 03/26 22:07
foolwind: 減少6倍不就代表價錢還能再漲6倍以上 123.192.162.54 03/26 22:08
kjm1104: 兩個字 不可能 223.138.20.105 03/26 22:08
ltytw: 能壓縮之後 只會越來越貪婪吧? 36.234.206.177 03/26 22:09
d0178411: 還我1T1000 32G3000 111.71.213.96 03/26 22:11
taruru: 有人只是上PTT跟看水管還是插滿128G 61.224.178.213 03/26 22:17
YCL13: 對有用AI的人而言,這是讓RAM更值錢,舉例 59.115.138.195 03/26 22:17
taruru: 記憶體沒在嫌多的 61.224.178.213 03/26 22:17
YCL13: 來說現在大家都覺得64X4要價10萬太貴,但能 59.115.138.195 03/26 22:17
YCL13: 壓縮6倍等於256G DRAM可以offload 1T等級的 59.115.138.195 03/26 22:17
YCL13: LLM,那10萬就會突然變不貴,讓跑AI的更瘋 59.115.138.195 03/26 22:17
YCL13: 狂去搶RAM 59.115.138.195 03/26 22:17
x21999125x: 剛才看locallama subreddit又多了一 110.30.8.197 03/26 22:25
x21999125x: 個rotorquant,這個月的LLM發展超多 110.30.8.197 03/26 22:25
ejru65m4: 壓縮六倍記憶體 八倍的效能223.136.112.129 03/26 22:27
a45351: 如果是真的,價格至少還要翻3倍 101.8.232.36 03/26 22:28
ejru65m4: 除了三星 好像都有擴廠的風聲223.136.112.129 03/26 22:29
Akabane: 沒錯 壓縮六倍只是讓他算多六倍XD 114.35.99.248 03/26 22:30
ejru65m4: 等過半年 看看哪個是預言家223.136.112.129 03/26 22:30
KY1998: 需求還是很多,不然狐狸醬板鴨怎來的 114.24.142.62 03/26 22:30
ejru65m4: 明天倒是可以先看看市場信心223.136.112.129 03/26 22:31
ejru65m4: 看看漲三倍還六倍223.136.112.129 03/26 22:32
a740125: 能壓縮也代表可以用的更爽阿 1.172.84.50 03/26 22:37
violetish: 讓子彈飛一會兒吧 別先爽 各零件普遍漲 114.35.247.1 03/26 22:41
HiJimmy: 我覺得是幫i和a賣cpu,gpu主算力,cpu 36.235.157.130 03/26 22:45
HiJimmy: 當小助手,分配、壓縮和解壓,就是cpu也 36.235.157.130 03/26 22:45
HiJimmy: 要越配越高,ram就不會降,卡到是一直加 36.235.157.130 03/26 22:45
liaox: 我是覺得短時間內不可能跌啦 1.161.30.47 03/26 22:46
aegis43210: 又不是每個模型都可以支援,而且現在 106.104.70.5 03/26 22:50
aegis43210: 記憶體需求主要在西台灣,google不給 106.104.70.5 03/26 22:50
aegis43210: 西台灣用的話,影響就很小 106.104.70.5 03/26 22:50
kant1123: 能壓縮就能裝更多阿 1.173.176.60 03/26 22:51
littledrop: 就像寒武紀大爆發 一旦發展就會加速 150.117.221.17 03/26 22:52
littledrop: 更快的網路、更快的運算、更快的儲存 150.117.221.17 03/26 22:53
littledrop: 對於AI的需求 當然是更大模型跟運算 150.117.221.17 03/26 22:54
ejru65m4: 是啊 更大更多 現在就算全記憶體擴產六223.136.112.129 03/26 22:56
ejru65m4: 倍也吃得下223.136.112.129 03/26 22:56
ejru65m4: 換算法降需求不過是另一種擴產六倍而已223.136.112.129 03/26 22:57
star99: 這個模型配此算法少六倍 其他不一定能 42.73.112.32 03/26 23:08
star99: 圖像聲音影像生成各種算法底層也不同 42.73.112.32 03/26 23:08
alvistan: 記憶體要泡沫了!!! 125.229.106.95 03/26 23:10
sova0809: OK 資料中心又多了6倍的記憶體使用空間 218.166.73.150 03/26 23:14
necrophagist: 這是壓縮上下文大小kv cache的 模 223.143.78.117 03/26 23:17
necrophagist: 型本身大小一樣 就是能讓你對話能 223.143.78.117 03/26 23:17
necrophagist: 更長 223.143.78.117 03/26 23:17
bizer: 壓得多,代表能裝更大的模型,不代表記憶體 36.225.186.149 03/26 23:22
bizer: 省 36.225.186.149 03/26 23:22
RaiGend0519: 我剛剛去看這到底啥玩意 1.168.51.108 03/26 23:27
RaiGend0519: 省掉記憶體 1.168.51.108 03/26 23:27
chinhan1216: YA! 118.161.16.148 03/26 23:28
RaiGend0519: 但是提高運算負擔、降低準確度 1.168.51.108 03/26 23:28
RaiGend0519: 雖然搞不太懂到底要怎麼適用各模型 1.168.51.108 03/26 23:28
RaiGend0519: 但如果NV搞成晶片硬體加速的話應該會 1.168.51.108 03/26 23:29
RaiGend0519: 很可觀 1.168.51.108 03/26 23:29
RaiGend0519: 問AI他給個例子滿好懂的 1.168.51.108 03/26 23:32
RaiGend0519: 現在使用的AI就像音樂聽FLAC 1.168.51.108 03/26 23:32
RaiGend0519: TurboQuant把FLAC壓成MP3 1.168.51.108 03/26 23:32
RaiGend0519: 聽起來還有個87%像但容量大幅減少 1.168.51.108 03/26 23:33
RaiGend0519: 於是小容量播放器也能塞幾千首歌 1.168.51.108 03/26 23:35
RaiGend0519: 容量需求仍然成長但趨緩 1.168.51.108 03/26 23:36
ElderShock: 黃牛: 假的 111.71.32.205 03/26 23:36
KooA: 現在買一條=之前買6條,買爆 1.34.190.197 03/26 23:37
reaturn: 可以壓縮那不代表說可以買更多記憶體來218.166.139.143 03/26 23:46
reaturn: 做多一倍的事嗎218.166.139.143 03/26 23:46
alvistan: 注意這個是省HBM 不是省SSD 125.229.106.95 03/26 23:51
bobby4755: 太棒了 更多人會想搶記憶體了 223.137.4.136 03/26 23:51
dsin: 這個是省下紀錄內容的容量 不是模型本身 假 123.194.245.27 03/27 00:07
dsin: 設你之前跟AI聊天10句話要1G記憶體存 現在可 123.194.245.27 03/27 00:08
dsin: 以存60句用1G 不存下來他就忘記之前講過的話 123.194.245.27 03/27 00:09
dsin: 這叫kv cache 123.194.245.27 03/27 00:10
lordmi: 一堆瞎起鬨的。這個主要是在縮減你本地端 36.229.84.19 03/27 00:18
lordmi: 推論KV Cache size,也就是說利好手機或 36.229.84.19 03/27 00:18
lordmi: 筆電應用ai,對少說有幾千張h100在訓練的 36.229.84.19 03/27 00:18
lordmi: 集群根本不相干,更別提減少裡面的記憶體 36.229.84.19 03/27 00:18
lordmi: 用量了 36.229.84.19 03/27 00:18
ketrobo: 這樣反而要漲了,算力賣便宜了,再漲六倍 223.140.169.83 03/27 00:21
ketrobo: 價錢賣 223.140.169.83 03/27 00:21
Warez: 不用大量?那就是還是要囉? 再漲你個十萬 60.249.139.8 03/27 00:35
Warez: ! 60.249.139.8 03/27 00:35
yun1019: 想太多 還是需要記憶體 220.134.139.35 03/27 00:53
casco5566: 加油 118.166.29.82 03/27 01:26
r60214: 壓縮越多不就代表裝越多更好 59.102.166.48 03/27 02:13
samsonfu: 本地端能用就是福音 27.53.230.97 03/27 02:24
tshu: 在電腦上有壓縮的東西還少嗎?手機照片影片 59.126.229.192 03/27 02:32
tshu: ,空間有省?哪個不是越用越大?網路頻寬加 59.126.229.192 03/27 02:32
tshu: 大再加大,win11一直塞新bug沒變大? 59.126.229.192 03/27 02:32
tuwile: 牛皮了GOOGLE 1.168.32.245 03/27 02:58
dildoe: 不會結果context大小變大 軍備競賽依舊吧 118.168.181.87 03/27 06:21
dildoe: 每天給錯誤引導ncc視而不見 118.168.181.87 03/27 06:22
dildoe: 這種有奇怪目的文一般人有需要參考嗎? 118.168.181.87 03/27 06:24
dildoe: 貼股版不是更好 118.168.181.87 03/27 06:24
YCL13: 如果是省KV cache,那覺得品質要考量,就像 59.115.138.195 03/27 06:40
YCL13: 早就有的fast attention也可,但不少人就覺 59.115.138.195 03/27 06:40
YCL13: 得為了省記憶體降到Q4並不值得 59.115.138.195 03/27 06:40
iorittn: 雪山狐狸的長度多6倍 42.77.52.171 03/27 07:00
ruei1999: 整個華爾街菜B說法,記憶體能少用代表我 114.36.100.27 03/27 08:35
ruei1999: 本來32G可能變成16G就可以,那我為什麼 114.36.100.27 03/27 08:35
ruei1999: 不繼續塞滿32G?現在搞模型的本地戶沒錢 114.36.100.27 03/27 08:35
ruei1999: 上128,256啊… 114.36.100.27 03/27 08:35
CloudVII: 原本飛天因為戰爭掉下來 更因為新技術又 223.23.199.243 03/27 08:43
CloudVII: 下墜了 223.23.199.243 03/27 08:43
tetani: 感覺是騙人 壓縮後 用更多記憶體優勢更多 218.173.205.52 03/27 09:09
sali921: 5090可以跑192G模型,爽翻天223.138.147.219 03/27 09:18
newyorker54: 載入模型所需記憶體不變,只有上下文 42.78.36.162 03/27 09:23
newyorker54: 長度吃掉的記憶體可能少為四分之一, 42.78.36.162 03/27 09:23
newyorker54: 256k上下文或許用10G,最吃記憶體的 42.78.36.162 03/27 09:23
newyorker54: 本體還是一樣消耗 42.78.36.162 03/27 09:23
hannah5269: 套句等等黨講的 我好興奮哇! 42.79.152.45 03/27 09:25
aabbc777: 省記憶體不代表會少買記憶體 59.120.215.74 03/27 09:31
tn601374: 代表成本降低 但是還是需求很大 1.164.223.209 03/27 09:33
hayato01: 確實省記憶體跟少買是兩回事103.129.180.234 03/27 09:36
hayato01: 因為不論省不省,都是量大才能幹大事103.129.180.234 03/27 09:36
clair281: 需求還是在啊,不過消費級應該可以降了 101.9.203.253 03/27 09:38
tddt: 記憶體廠跌死你們 36.231.75.176 03/27 09:45
selfhu: 可以榨六次了114.137.129.228 03/27 09:54
vixiv: 趁機吸納個鬼 正常是改投google吧 怕沒人接 42.72.183.140 03/27 10:08
vixiv: 記憶體逆 42.72.183.140 03/27 10:08
linzero: 壓縮多少會拖慢時間吧? 36.230.150.69 03/27 10:11
aa0968: 記憶體廠: 幹 這樣我怎麼薛錢!223.137.207.159 03/27 10:13
kimula01: 記憶體跟算力一樣 一定會軍備競賽 1.164.129.154 03/27 10:29
Vansace: 喔? 有新技術了? 114.47.82.190 03/27 10:35
newyorker54: 要在vllm下才能用而且vllm現在就還沒 42.78.36.162 03/27 10:48
newyorker54: 支援這個演算法 42.78.36.162 03/27 10:49
commandoEX: WAV才是未壓縮音訊 59.125.204.130 03/27 10:58
widec: 我只問一件事:你會嫌助理記的事情太多嗎? 114.42.242.182 03/27 11:17
widec: 就算現在的AI記憶範圍多一倍 都還遠遠不夠 114.42.242.182 03/27 11:18
widec: 而google以外的公司不就要買更多才能趕上? 114.42.242.182 03/27 11:19
mimicqneb: 賺到6倍記憶體? 49.215.218.68 03/27 11:20
mainsa: 這麼說好惹 如果nv推出一個ai算力加倍的 49.216.222.244 03/27 11:22
mainsa: 新晶片 那各家ai公司會買一半的量還是買 49.216.222.244 03/27 11:23
mainsa: 更多? 我有六倍性能還不她媽加更多錢搶爆 49.216.222.244 03/27 11:23
mainsa: 原本可能還嫌貴 現在有這壓縮技術可能願意 49.216.222.244 03/27 11:23
mainsa: 用再貴兩倍的錢去搶 49.216.222.244 03/27 11:24
takanasiyaya: 想太多,不是省1/6是用6倍,現在120 101.10.218.65 03/27 11:30
takanasiyaya: B都「小」模型了 101.10.218.65 03/27 11:30
bunjie: 這技術的推出 會加速各大廠在支出和獲利 111.82.50.22 03/27 11:43
bunjie: 取得一個平衡 111.82.50.22 03/27 11:43
bunjie: 這技術如果是google獨有 假設同性能他只 111.82.50.22 03/27 11:45
bunjie: 要用1/6的成本就和對手打的平分秋色 那稍 111.82.50.22 03/27 11:45
bunjie: 微再多一些成本就領先 那這樣當然就不回 111.82.50.22 03/27 11:45
bunjie: 再用100%的成本去執行囉 111.82.50.22 03/27 11:45
excercang: 後頭有大魔王歐盟阿,籠斷性技術122.116.214.166 03/27 12:08
excercang: 很容易被歐盟用藉口罰錢,成本轉稼後122.116.214.166 03/27 12:09
excercang: 未必比現在還省122.116.214.166 03/27 12:09
Bustycat: 這不是讓你可用更大模型的技術 27.53.225.168 03/27 12:16
Bustycat: 現在價跌只是很多人不懂 27.53.225.168 03/27 12:17
RaiGend0519: 嗯,能落實的話我也覺得會再平衡 1.168.5.240 03/27 12:19
RaiGend0519: 短期需求趨緩成長期發展,就比較難 1.168.5.240 03/27 12:23
RaiGend0519: 炒價格惹 1.168.5.240 03/27 12:23
corum68972: 這波掃記憶體的又不是google 42.72.92.211 03/27 12:38
menchian: 減少6倍不就代表同樣的硬體可以跑更大更 114.42.183.229 03/27 12:52
menchian: 好的模型? 114.42.183.229 03/27 12:52
necrophagist: 就說這是壓kv cache了 壓模型早就 223.143.78.117 03/27 13:09
necrophagist: 有gguf等很多方法 但都是犧牲精度 223.143.78.117 03/27 13:09
necrophagist: 去換 223.143.78.117 03/27 13:09
klm619: 既有規模直接翻六倍,表示又能再增加了 111.248.212.23 03/27 13:21
tsairay: google就是買不到貨才需要搞這個吧 202.39.11.150 03/27 14:36
newyorker54: 上下文長度增加,記憶內容加大,只會120.114.249.100 03/27 14:46
newyorker54: 讓人覺得AI變聰明,使用量只會更多不120.114.249.100 03/27 14:46
newyorker54: 會更少120.114.249.100 03/27 14:46
MrDisgrace: 醬不就RAM買越多賺越多XD136.226.240.252 03/27 15:40
kanding255: 爽啦 49.217.132.63 03/27 17:50
tcchu: 有沒人套住? 27.242.98.42 03/27 19:18
SkyBearV: 絕對有人怕了 不然也不會清一色唱衰220.135.195.252 03/27 20:01
ksng1092: 方向是不要再受制於特定硬體架構,然後 114.32.144.153 03/27 20:26
ksng1092: 就炒不起來(?) 114.32.144.153 03/27 20:26
ksng1092: 另外在問google買不買得到貨之前,好像 114.32.144.153 03/27 20:27
ksng1092: 要問openai到底還吃不吃得下貨XD 114.32.144.153 03/27 20:27
ryl54007: 太棒了真的降價我要幫gemeni升級pro了 111.241.119.3 03/27 20:40
asphodelux: 需求減少 但多多益善是吧 42.78.53.104 03/27 23:56
RaiGend0519: 沒事 閃迪今晚回神 1.168.5.240 03/28 00:57
RaiGend0519: 雖然又A下去惹 1.168.5.240 03/28 00:57