看板 Stock 關於我們 聯絡資訊
千禧年的網路泡沫,也是先炒作硬體商,Cisco, Sun...,Sun還有"dot in dot-com"的廣告。 網路確實是改變世界,但真正大賺的是軟體公司,而且是完全新鮮的軟體公司。 這次AI浪潮,應該也是類似。 N家這次炒作這麼高,是因為真的,Compute是供不應求。每個大公司都怕買不夠,跟不上。 但最近一些AI的發展,也許會發現,這些Compute是不需要的。 Mamba, RetNet, RWKV是從"Attention"的這點來改善。"Attention"是Quadratic Complexity,這是硬體需求的關鍵。現在在找方法從Quadratic改成Linear。 Mamba我很看好,它的作者之一也是"Flash Attention"的作者。 但昨天一篇新的論文,可能是真的翻天覆地的開始。 https://arxiv.org/abs/2402.17764 "The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" https://news.ycombinator.com/item?id=39535800 hn的討論。 現在討論的共識是,可行,理論基礎很扎實。各路人馬開始指出,從2006年開始的這方面研究,已經找出好多篇證實這方向是可行的。 現在的LLM是用fp16(16bits),這方法可1.58bits,(討論說可以縮到0.68bits) 然後本來是fp dot product的只要int add。 輕鬆10x的效能,新ASIC針對Ternary weight發展可以輕鬆100x的效能改善? 如果這篇證實是可行的,AI起跑點重新設置,所有公司的價值都要重新計算。 這篇的作者群很有資歷,但很有趣的是,主要是來自北京/清華大學。美國猛力壓制中國的運力運算,造就不太需要Compute的方法的發現,戳破美國AI泡沫,這會是非常的諷刺。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.70.128.119 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1709165206.A.DEA.html
addy7533967 : 蒜粒概念股有嗎 02/29 08:08
YummyLin2120: 可惜民進黨逢中必反 根本反智 02/29 08:10
leochen124 : 中國沒有a100也可以發論文? 02/29 08:11
patrol : 嗯,先拿點實際的東西出來看看 02/29 08:13
sirins : 種蒜用農藥,重返榮耀哪一間我就不說了 02/29 08:13
poisonB : 說得很好 繼續加油啦 02/29 08:14
fedona : 實作的出來再吹 02/29 08:16
apple123773 : 這時候崩真的好,大家就可以xdd 02/29 08:16
kausan : 算力需求根本沒極限 結案 02/29 08:16
wUbInG : 可惜民進黨逢中必反 根本反智 02/29 08:17
otaku690 : 對於降低資料頻寬的追求跟美國打不打壓沒關係啦 02/29 08:17
iamchuan314 : 喔 02/29 08:18
zxcvb1234522: 投資那麼多算力,結果沒辦法賺錢,目前很多AI產品 02/29 08:21
zxcvb1234522: 的狀況 02/29 08:21
audic : 沒有算力才在那邊搞五四三,最終還是回歸算力追求 02/29 08:21
hwei9582905 : 大紀元 02/29 08:21
audic : 跟縮小晶片跟先進封裝兩條線不衝突一樣 02/29 08:22
mojito888 : 理論上時光機也做得出來,理論上啦!中或贏,要加 02/29 08:22
mojito888 : 油餒… 02/29 08:23
ppon : 之前以太幣也是出現更有效率的挖礦法 結果沒人再用 02/29 08:23
ppon : 顯卡挖 AI感覺也是遲早的事 02/29 08:23
emind : 美國用這個技術訓練更大的模型? 02/29 08:25
tttt0204 : 中文太爛,重寫一遍 02/29 08:25
littlejackbr: 我很懷疑你到底知不知道自己在講什麼 02/29 08:26
herculus6502: https://www.youtube.com/watch?v=Gtf3CxIRiPk 02/29 08:27
AGODC : 就是沒算力才在那邊搞東搞西的,等這東西真的弄出來 02/29 08:28
AGODC : ,人家瘋狂買算力的都跑多遠了? 02/29 08:28
s56565566123: 好了啦 你賺多少 02/29 08:29
WTF55665566 : 優化架構本來就一直存在 把這個扯成跟打壓晶片有關 02/29 08:30
WTF55665566 : ?問號 02/29 08:30
WTF55665566 : 還在理論可行沒實作的東西看看就好 不要又搞個超導 02/29 08:30
WTF55665566 : 體笑話 02/29 08:30
henry2003061: 你是誰 02/29 08:30
kausan : 這麼說好了 gpu遲早會降價 沒錢的公司可以等價格合 02/29 08:31
kausan : 理再買阿 02/29 08:31
powerkshs : 又是太監在自慰不用性生活ㄏㄏ 02/29 08:31
herrowui : 大學的論文著重在理論,是的理論!! 02/29 08:31
c928 : 這文字看了就頭痛 02/29 08:32
ck326 : 看到吹強國就可以不用看了 02/29 08:33
CORYCHAN : 大大你在電蝦版吹的MSI Claw 02/29 08:33
CORYCHAN : 好像是跑分80 性能40欸 02/29 08:33
CORYCHAN : 這樣還賣的比Ally貴是怎樣.. 02/29 08:33
zsquarez : 說得很好,下次別說了 02/29 08:34
flycarb : 可4現在AI專家們都爽用CUDA欸,而且大力出奇蹟呢 02/29 08:34
e223833755 : 跌了就出來透氣了 02/29 08:36
Fww : 看到吹強國就知道可以跳過了 02/29 08:36
flycarb : 工程師:改算法太麻煩惹,我們直接大力出奇蹟吧~~ 02/29 08:37
iamjojo : 戳破再說 先搞個比sora厲害的出來我就相信 02/29 08:41
henry2003061: 補噓 02/29 08:44
gk1329 : 好 中國又贏惹 贏兩次 02/29 08:45
AndyMAX : 之前吹量子 吹爆了改吹AI 02/29 08:48
kentsv : 中國又來贏了,推文有些人又被空氣碰到就高潮跳針 02/29 08:50
kentsv : 民進黨了 02/29 08:50
abbjesper : 擋人財路不怕死嗎 02/29 08:50
flipflap : 中或贏 02/29 08:50
JKjohnwick : 這次跟.com差那麼多 02/29 08:50
Mchord : AI發展到現在只有論文標題愈來愈像農場文是真理 02/29 08:52
wrider987 : 中國還在用算盤解算式嗎? 02/29 08:52
alberthcc : 中共還沒死? 02/29 08:54
TSMininder : 寫得不錯 適合丟給AI翻譯一下 02/29 08:55
joygo : 算力高也不見得做的出好ai,等老黃出算力補偵 02/29 08:57
yoshilin : 美國人不習慣省錢 02/29 08:57
ariadne : 我覺得中國量子電腦搞出後ai就會領先世界 又雙贏 02/29 08:57
joygo : 現在主要是大家都要搶頭香,agi這種東西第一個做出 02/29 08:58
joygo : 來的人直接自霸軟體界,一個24小時不休息會思考記 02/29 08:58
joygo : 憶無限的天才員工,有什麼軟體是他寫不出來的 02/29 08:58
newwu : 變linear有差,省個運算你以為老黃就會怕了? 02/29 08:58
oopFoo : 論文作者一半以上是微軟亞洲研發的員工。我是在釣XD 02/29 09:00
oil01 : 就中國貪小便宜以為自己聰明! 02/29 09:01
previa : 噓的人多少人付費買AI產品過? 02/29 09:02
previa : 我懷疑有1/3就不錯了 02/29 09:02
previa : chatgpt噓的有多少人是付費會員? 02/29 09:03
ccy858 : 喔 02/29 09:04
aleventy : 這跟三星超車台g的言論,哪個可信度高? 02/29 09:04
sdiaa : 怎麼會覺得算力高的公司沒有在優化自己的程式阿?? 02/29 09:07
xlaws : 嘻嘻 02/29 09:09
icedog122 : overbooking 丸子 02/29 09:16
GiPaPa : 量化太多精確度會下降 確定要拿這個講不需要算力嗎 02/29 09:16
thbygn98 : 我覺得蠻難的,有些問題變interger反而更難 02/29 09:22
Westzone : 呵呵,信的去放空輝達阿,笑你不敢而已 02/29 09:22
thbygn98 : 而且運算變簡單不一定等於算力需求降低,反而讓十 02/29 09:25
thbygn98 : 倍百倍大的模型變的可能,說不定相反變ai爆炸 02/29 09:25
thbygn98 : 只是贏家可能換人而已,說不定回頭做fpga了 02/29 09:27
stevenkane : 中國或成最大贏家 02/29 09:28
thigefe : 還以為是什麼,原來是彎道超車啊 02/29 09:28
littlelaba : 優化是一定要優化 但不代表硬體需求一定會滿足 02/29 09:30
steven3231 : 下次先把吹中國放文章開頭好嗎,省得浪費時間看整篇 02/29 09:34
BruceChen227: 中又贏 02/29 09:35
jympin : 結論:中或贏 02/29 09:41
Altair : 看起來只有理論 沒有實作? 紙上談兵?? 02/29 09:41
laechan : 中或贏 02/29 09:42
Altair : 又 這個會否跟ram很像 你說不需要太多ram就能做? 02/29 09:42
Altair : ram是愈多愈好 沒人嫌少 02/29 09:42
oopFoo : 有3.9B的,70B的還在路上。如果這可行,就不需要 02/29 09:43
boy1031 : AI又不會向領導敬酒下跪繳紅包,這在共慘就是完全沒 02/29 09:44
boy1031 : 用的東西 02/29 09:44
oopFoo : GPU做inference。普通CPU就可用了,這是關鍵。 02/29 09:44
rockocean : 彎道超車 拓海還是填海? 02/29 09:46
oopFoo : 本來贏者全拿的,現在每個人都有機會。int add很容 02/29 09:47
oopFoo : 易的。然後本來是compute限制的,現在回到data限制 02/29 09:48
polome : 這不就是大部分晶片都12奈米,所以1奈米不用花錢研 02/29 09:48
polome : 發了的理論嗎? 02/29 09:48
oopFoo : 誰有好的data足夠的data會是目前的領先者。 02/29 09:48
lPla : 中國或成最大贏家 02/29 09:49
mic73528 : 爽,遙遙領先,XDD威武 02/29 09:50
azhu : 這文似乎觸發了什麼東西 02/29 09:51
a000000000 : 他這東西問題在尼所有model都要重新train 02/29 09:52
a000000000 : training的硬體需求大概沒變 02/29 09:52
newwu : Training 才是這篇比較有價值的點吧 02/29 09:53
newwu : Inference 本來就有quantization,這又不是第一天 02/29 09:53
newwu : 的事,大驚小怪喔 02/29 09:53
a000000000 : inferencing的話現有的gpu也可以跑int8 02/29 09:53
a000000000 : 路上asic公司倒是一大堆惹 02/29 09:53
a000000000 : 整體來講大概就下一代model等級的東西可以塞這帶的 02/29 09:54
a000000000 : 硬體 沒惹 反正ai公司還是會想辦法把硬體塞滿 02/29 09:54
a000000000 : ai model膨脹的速度太快惹 摩爾定律的四倍 02/29 09:54
DLHZ : 論文都給數據了 說沒實作的真的有看文章? 02/29 09:57
piy12345689 : 論文…跟實作別混為一談 02/29 09:58
sdbb : 認真文,謝謝 02/29 10:02
kobi0910 : 東西放出來給大家用了再說 02/29 10:05
brucetu : 輕鬆一百倍那巨頭的算力不就是一百倍?你以為這個 02/29 10:07
brucetu : 技術美國人拿不到? 02/29 10:07
brucetu : 給巨頭一百倍的AI應該可以生出新的應用了吧繼續噴一 02/29 10:08
brucetu : 百倍 02/29 10:08
macair : 又來考古了,AI是未來100年的發展,還在2000年的教 02/29 10:09
macair : 訓,都被教訓到快4萬點了還教訓啊 02/29 10:09
brucetu : 軟體是隨著硬體成本降低而泡沫化還是隨著硬體成本 02/29 10:09
brucetu : 降低而蓬勃發展,你再想想 02/29 10:09
LDPC : 99猩猩 5555554 QQ 02/29 10:11
evil0108 : 可惜美國逢中必反 根本反智 02/29 10:12
evil0108 : 笑死 推文一堆政治腦 02/29 10:12
ohya111326 : 好啦 中國又贏 開心了嗎 02/29 10:13
nata12 : 哥布林說別人反智 02/29 10:13
evil0108 : 把實際東西拿出來再說吧 intel也說能造出2奈米阿 02/29 10:14
evil0108 : 阿東西勒?只能實驗室做出來無發量產 搞笑唷 02/29 10:14
Ceferino : 逢中必反真可怕 02/29 10:14
videoproblem: 占國廁可以不要再來亂了ㄇ 02/29 10:15
jfw616 : 所以量產了嗎? 02/29 10:17
jfw616 : 運力運算只會越來越多,跟你研究出效能改善... 02/29 10:18
jfw616 : 兩回事... 02/29 10:18
jfw616 : ai是不是泡沫還不得而知... 02/29 10:19
abcjoe61115 : 中或贏 02/29 10:20
strlen : 好 輝達身家空 目標價2元 收到打收到 02/29 10:21
ck960817 : Training跟inference都沒搞清楚你還是先回去唸書吧 02/29 10:27
showlive0214: 蘋果算硬體還是軟體商 02/29 10:32
js850604 : 你用的資源少又怎樣,還不是要更多硬體一起算 02/29 10:37
a000000000 : 這東西4微軟中國研究院的所以其實講中或贏應該還早 02/29 10:37
v21638245 : 逢中必吹,中又贏 02/29 10:40
zephyrmartin: 難得會想在股版噓人 02/29 10:45
metallolly : 中國又贏了 02/29 10:48
sheep2009 : Nv真的很多人沒上到 一堆招 02/29 10:49
qazwsx1225 : 中國要贏多少次? 02/29 10:56
ypes970813 : 繼續幻想 02/29 11:08
leon1757tw : 中又贏 02/29 11:08
xfile : 永動機的實現終於出現了嗎 02/29 11:17
csluling : 中國的車我先不上 02/29 11:19
Lowpapa : 正確 AI泡沫了 10年後再來 02/29 11:23
karta2359950: 真的做到再出來吹 很會唬爛 02/29 11:30
followwar : Training 跟 inference 是兩回事 02/29 11:37
aegis43210 : 如果CPU可以靠特殊指令集達到和目前一堆ASIC一樣的 02/29 11:40
aegis43210 : 推論效能,那的確是x86陣營的大機會 02/29 11:40
sxing6326 : 反指標的咖洨 02/29 11:48
pacino : 網路泡沫(x). 達康泡沫(o) for 2000 02/29 11:55
jamie81416 : 各位,中國又贏啦 02/29 12:21
iceyeman : 少來 真出來股價就會跌了 我看還繼續往上噴勒 02/29 12:21
jamie81416 : 北京清華是個出產奴工的好地方,但說他們能搞啥 02/29 12:23
jamie81416 : 創新?哈哈哈哈 02/29 12:23
dave070715 : 中國又贏了XDD一直贏一直贏,喔對了 再一年就2025了 02/29 12:31
dave070715 : ,怎麼還是被美國吊打XDD 中國韭菜就是要任命啦,美 02/29 12:31
dave070715 : 國肛中國;中國韭菜被黨肛QQ 02/29 12:31
wu2183 : 未看先誰中國又贏 02/29 12:49
eemail : 彎道超車概念 但你不要以為ㄧ直在彎道會變曲速XD 02/29 12:54
cannedtuna : 語言模型夠了就加上視覺模型 02/29 13:04
cannedtuna : 視覺夠了再塞物理模型 02/29 13:04
cannedtuna : 要說算力夠了還太早吧 02/29 13:04
henry2003061: 這種文大家就別認真了 02/29 13:24
LDPC : cannedtuna這點子不錯耶 QQ等等搞一個測測看 02/29 13:32
blackjose : 要修改LLM結構,然後重新弄一套高效的,再訓練,通 02/29 13:33
blackjose : 常時程不會贏大力出奇蹟的。 02/29 13:33
blackjose : 現在瘋搶H100就是要拼時間上灘頭。 02/29 13:33
LDPC : 大力出奇蹟就scaling law所預測啊不過1b fgpa model 02/29 13:34
LDPC : 已經很久以前就有 shannon都可以拿來預測上限 02/29 13:35
LDPC : 不過mamba只是為了解決infernece 他在training端 02/29 13:35
LDPC : 還是有一堆限制和缺點RNN缺點就是不能並行運算 02/29 13:36
LDPC : 然後mamba那個做法會無法有效利用tensor core 02/29 13:36
HenryLin123 : GPU inference? 02/29 13:43
oopFoo : Mamba用prefix-sums來避開rnn不能平行運算的問題。 02/29 13:43
LDPC : 樓上 那玩意不能有效利用tensor core 02/29 13:44
LDPC : Google最新那篇設計就好很多BlockState Transformer 02/29 13:45
LDPC : StateSpace+Transformer 我個人覺得比較符合現在 02/29 13:47
oopFoo : parallel scan(prefix sums)可以用tensor core啊。 02/29 13:48
oopFoo : 只是比較麻煩而已。Mamba的問題是"selective"會不會 02/29 13:49
oopFoo : 太loosy。目前看來是沒問題的,但還是需要更大的 02/29 13:50
LDPC : 以A100為例 fp32(19.5Tflops) Tensor-core(156Tflop 02/29 13:50
oopFoo : model來證實。Mamba最重要是"context"可以變得很大 02/29 13:50
oopFoo : 當你有unlimited context的時候。直接就用zero shot 02/29 13:52
oopFoo : learning了,RAG就不需要了,更容易使用。 02/29 13:53
LDPC : mamba優點就是hidden state update會根據input調整 02/29 13:53
LDPC : QQ這幾天來實作一下mamba好了 看一下訓練的成本 02/29 13:55
shadtalker : 扯到底中國為何CV LLM可以這麼強 02/29 14:08
yiersan : 中國自我安慰罷了 可憐那 02/29 14:48
vacuityhu : 不是啊...就算真的能無損效能改int, 那改完int省出 02/29 17:40
vacuityhu : 來的算力我也可以繼續擴增模型尺寸啊, 模型變大能 02/29 17:40
vacuityhu : 做的事更多更好一樣甩你好幾個車身, 不加大模型我 02/29 17:40
vacuityhu : 也可以加快運算效率啊, 影片即時翻譯字幕比你快比 02/29 17:40
vacuityhu : 你精準還是把你壓在地上摩擦, 追根究底算力碾壓的 02/29 17:40
vacuityhu : 前提下還在妄想什麼彎道超車? 02/29 17:40
sa87a16 : 連晶片都要手工的國家,你吹慢慢吹 02/29 19:16
sa87a16 : 上次一堆韭菜被詐騙,這次一定不一樣對不對 02/29 19:17
musie : 笑死 一堆不懂AI的在亂噓 我公司在小模型可以重現 03/02 02:58
musie : 這對降低成本還有inference速度有很大的影響 03/02 02:58
musie : 這是今年以來最重要的Paper 03/02 03:01