推 addy7533967 : 蒜粒概念股有嗎 02/29 08:08
推 YummyLin2120: 可惜民進黨逢中必反 根本反智 02/29 08:10
推 leochen124 : 中國沒有a100也可以發論文? 02/29 08:11
推 patrol : 嗯,先拿點實際的東西出來看看 02/29 08:13
→ sirins : 種蒜用農藥,重返榮耀哪一間我就不說了 02/29 08:13
→ poisonB : 說得很好 繼續加油啦 02/29 08:14
噓 fedona : 實作的出來再吹 02/29 08:16
推 apple123773 : 這時候崩真的好,大家就可以xdd 02/29 08:16
→ kausan : 算力需求根本沒極限 結案 02/29 08:16
推 wUbInG : 可惜民進黨逢中必反 根本反智 02/29 08:17
→ otaku690 : 對於降低資料頻寬的追求跟美國打不打壓沒關係啦 02/29 08:17
噓 iamchuan314 : 喔 02/29 08:18
噓 zxcvb1234522: 投資那麼多算力,結果沒辦法賺錢,目前很多AI產品 02/29 08:21
→ zxcvb1234522: 的狀況 02/29 08:21
推 audic : 沒有算力才在那邊搞五四三,最終還是回歸算力追求 02/29 08:21
噓 hwei9582905 : 大紀元 02/29 08:21
→ audic : 跟縮小晶片跟先進封裝兩條線不衝突一樣 02/29 08:22
→ mojito888 : 理論上時光機也做得出來,理論上啦!中或贏,要加 02/29 08:22
→ mojito888 : 油餒… 02/29 08:23
推 ppon : 之前以太幣也是出現更有效率的挖礦法 結果沒人再用 02/29 08:23
→ ppon : 顯卡挖 AI感覺也是遲早的事 02/29 08:23
→ emind : 美國用這個技術訓練更大的模型? 02/29 08:25
噓 tttt0204 : 中文太爛,重寫一遍 02/29 08:25
推 littlejackbr: 我很懷疑你到底知不知道自己在講什麼 02/29 08:26
→ AGODC : 就是沒算力才在那邊搞東搞西的,等這東西真的弄出來 02/29 08:28
→ AGODC : ,人家瘋狂買算力的都跑多遠了? 02/29 08:28
推 s56565566123: 好了啦 你賺多少 02/29 08:29
噓 WTF55665566 : 優化架構本來就一直存在 把這個扯成跟打壓晶片有關 02/29 08:30
→ WTF55665566 : ?問號 02/29 08:30
→ WTF55665566 : 還在理論可行沒實作的東西看看就好 不要又搞個超導 02/29 08:30
→ WTF55665566 : 體笑話 02/29 08:30
→ henry2003061: 你是誰 02/29 08:30
→ kausan : 這麼說好了 gpu遲早會降價 沒錢的公司可以等價格合 02/29 08:31
→ kausan : 理再買阿 02/29 08:31
噓 powerkshs : 又是太監在自慰不用性生活ㄏㄏ 02/29 08:31
推 herrowui : 大學的論文著重在理論,是的理論!! 02/29 08:31
→ c928 : 這文字看了就頭痛 02/29 08:32
噓 ck326 : 看到吹強國就可以不用看了 02/29 08:33
→ CORYCHAN : 大大你在電蝦版吹的MSI Claw 02/29 08:33
→ CORYCHAN : 好像是跑分80 性能40欸 02/29 08:33
→ CORYCHAN : 這樣還賣的比Ally貴是怎樣.. 02/29 08:33
噓 zsquarez : 說得很好,下次別說了 02/29 08:34
推 flycarb : 可4現在AI專家們都爽用CUDA欸,而且大力出奇蹟呢 02/29 08:34
→ e223833755 : 跌了就出來透氣了 02/29 08:36
噓 Fww : 看到吹強國就知道可以跳過了 02/29 08:36
推 flycarb : 工程師:改算法太麻煩惹,我們直接大力出奇蹟吧~~ 02/29 08:37
推 iamjojo : 戳破再說 先搞個比sora厲害的出來我就相信 02/29 08:41
噓 henry2003061: 補噓 02/29 08:44
推 gk1329 : 好 中國又贏惹 贏兩次 02/29 08:45
推 AndyMAX : 之前吹量子 吹爆了改吹AI 02/29 08:48
推 kentsv : 中國又來贏了,推文有些人又被空氣碰到就高潮跳針 02/29 08:50
→ kentsv : 民進黨了 02/29 08:50
→ abbjesper : 擋人財路不怕死嗎 02/29 08:50
→ flipflap : 中或贏 02/29 08:50
噓 JKjohnwick : 這次跟.com差那麼多 02/29 08:50
推 Mchord : AI發展到現在只有論文標題愈來愈像農場文是真理 02/29 08:52
噓 wrider987 : 中國還在用算盤解算式嗎? 02/29 08:52
噓 alberthcc : 中共還沒死? 02/29 08:54
→ TSMininder : 寫得不錯 適合丟給AI翻譯一下 02/29 08:55
推 joygo : 算力高也不見得做的出好ai,等老黃出算力補偵 02/29 08:57
推 yoshilin : 美國人不習慣省錢 02/29 08:57
噓 ariadne : 我覺得中國量子電腦搞出後ai就會領先世界 又雙贏 02/29 08:57
→ joygo : 現在主要是大家都要搶頭香,agi這種東西第一個做出 02/29 08:58
→ joygo : 來的人直接自霸軟體界,一個24小時不休息會思考記 02/29 08:58
→ joygo : 憶無限的天才員工,有什麼軟體是他寫不出來的 02/29 08:58
→ newwu : 變linear有差,省個運算你以為老黃就會怕了? 02/29 08:58
→ oopFoo : 論文作者一半以上是微軟亞洲研發的員工。我是在釣XD 02/29 09:00
噓 oil01 : 就中國貪小便宜以為自己聰明! 02/29 09:01
推 previa : 噓的人多少人付費買AI產品過? 02/29 09:02
→ previa : 我懷疑有1/3就不錯了 02/29 09:02
→ previa : chatgpt噓的有多少人是付費會員? 02/29 09:03
→ ccy858 : 喔 02/29 09:04
推 aleventy : 這跟三星超車台g的言論,哪個可信度高? 02/29 09:04
→ sdiaa : 怎麼會覺得算力高的公司沒有在優化自己的程式阿?? 02/29 09:07
→ xlaws : 嘻嘻 02/29 09:09
→ icedog122 : overbooking 丸子 02/29 09:16
推 GiPaPa : 量化太多精確度會下降 確定要拿這個講不需要算力嗎 02/29 09:16
推 thbygn98 : 我覺得蠻難的,有些問題變interger反而更難 02/29 09:22
噓 Westzone : 呵呵,信的去放空輝達阿,笑你不敢而已 02/29 09:22
推 thbygn98 : 而且運算變簡單不一定等於算力需求降低,反而讓十 02/29 09:25
→ thbygn98 : 倍百倍大的模型變的可能,說不定相反變ai爆炸 02/29 09:25
→ thbygn98 : 只是贏家可能換人而已,說不定回頭做fpga了 02/29 09:27
推 stevenkane : 中國或成最大贏家 02/29 09:28
推 thigefe : 還以為是什麼,原來是彎道超車啊 02/29 09:28
推 littlelaba : 優化是一定要優化 但不代表硬體需求一定會滿足 02/29 09:30
噓 steven3231 : 下次先把吹中國放文章開頭好嗎,省得浪費時間看整篇 02/29 09:34
→ BruceChen227: 中又贏 02/29 09:35
噓 jympin : 結論:中或贏 02/29 09:41
→ Altair : 看起來只有理論 沒有實作? 紙上談兵?? 02/29 09:41
→ laechan : 中或贏 02/29 09:42
→ Altair : 又 這個會否跟ram很像 你說不需要太多ram就能做? 02/29 09:42
→ Altair : ram是愈多愈好 沒人嫌少 02/29 09:42
→ oopFoo : 有3.9B的,70B的還在路上。如果這可行,就不需要 02/29 09:43
推 boy1031 : AI又不會向領導敬酒下跪繳紅包,這在共慘就是完全沒 02/29 09:44
→ boy1031 : 用的東西 02/29 09:44
→ oopFoo : GPU做inference。普通CPU就可用了,這是關鍵。 02/29 09:44
→ rockocean : 彎道超車 拓海還是填海? 02/29 09:46
→ oopFoo : 本來贏者全拿的,現在每個人都有機會。int add很容 02/29 09:47
→ oopFoo : 易的。然後本來是compute限制的,現在回到data限制 02/29 09:48
推 polome : 這不就是大部分晶片都12奈米,所以1奈米不用花錢研 02/29 09:48
→ polome : 發了的理論嗎? 02/29 09:48
→ oopFoo : 誰有好的data足夠的data會是目前的領先者。 02/29 09:48
推 lPla : 中國或成最大贏家 02/29 09:49
→ mic73528 : 爽,遙遙領先,XDD威武 02/29 09:50
→ azhu : 這文似乎觸發了什麼東西 02/29 09:51
噓 a000000000 : 他這東西問題在尼所有model都要重新train 02/29 09:52
→ a000000000 : training的硬體需求大概沒變 02/29 09:52
→ newwu : Training 才是這篇比較有價值的點吧 02/29 09:53
→ newwu : Inference 本來就有quantization,這又不是第一天 02/29 09:53
→ newwu : 的事,大驚小怪喔 02/29 09:53
→ a000000000 : inferencing的話現有的gpu也可以跑int8 02/29 09:53
→ a000000000 : 路上asic公司倒是一大堆惹 02/29 09:53
→ a000000000 : 整體來講大概就下一代model等級的東西可以塞這帶的 02/29 09:54
→ a000000000 : 硬體 沒惹 反正ai公司還是會想辦法把硬體塞滿 02/29 09:54
→ a000000000 : ai model膨脹的速度太快惹 摩爾定律的四倍 02/29 09:54
→ DLHZ : 論文都給數據了 說沒實作的真的有看文章? 02/29 09:57
噓 piy12345689 : 論文…跟實作別混為一談 02/29 09:58
推 sdbb : 認真文,謝謝 02/29 10:02
→ kobi0910 : 東西放出來給大家用了再說 02/29 10:05
推 brucetu : 輕鬆一百倍那巨頭的算力不就是一百倍?你以為這個 02/29 10:07
→ brucetu : 技術美國人拿不到? 02/29 10:07
→ brucetu : 給巨頭一百倍的AI應該可以生出新的應用了吧繼續噴一 02/29 10:08
→ brucetu : 百倍 02/29 10:08
推 macair : 又來考古了,AI是未來100年的發展,還在2000年的教 02/29 10:09
→ macair : 訓,都被教訓到快4萬點了還教訓啊 02/29 10:09
→ brucetu : 軟體是隨著硬體成本降低而泡沫化還是隨著硬體成本 02/29 10:09
→ brucetu : 降低而蓬勃發展,你再想想 02/29 10:09
推 LDPC : 99猩猩 5555554 QQ 02/29 10:11
噓 evil0108 : 可惜美國逢中必反 根本反智 02/29 10:12
→ evil0108 : 笑死 推文一堆政治腦 02/29 10:12
→ ohya111326 : 好啦 中國又贏 開心了嗎 02/29 10:13
→ nata12 : 哥布林說別人反智 02/29 10:13
→ evil0108 : 把實際東西拿出來再說吧 intel也說能造出2奈米阿 02/29 10:14
→ evil0108 : 阿東西勒?只能實驗室做出來無發量產 搞笑唷 02/29 10:14
→ Ceferino : 逢中必反真可怕 02/29 10:14
噓 videoproblem: 占國廁可以不要再來亂了ㄇ 02/29 10:15
→ jfw616 : 所以量產了嗎? 02/29 10:17
→ jfw616 : 運力運算只會越來越多,跟你研究出效能改善... 02/29 10:18
→ jfw616 : 兩回事... 02/29 10:18
→ jfw616 : ai是不是泡沫還不得而知... 02/29 10:19
推 abcjoe61115 : 中或贏 02/29 10:20
推 strlen : 好 輝達身家空 目標價2元 收到打收到 02/29 10:21
噓 ck960817 : Training跟inference都沒搞清楚你還是先回去唸書吧 02/29 10:27
推 showlive0214: 蘋果算硬體還是軟體商 02/29 10:32
推 js850604 : 你用的資源少又怎樣,還不是要更多硬體一起算 02/29 10:37
噓 a000000000 : 這東西4微軟中國研究院的所以其實講中或贏應該還早 02/29 10:37
推 v21638245 : 逢中必吹,中又贏 02/29 10:40
噓 zephyrmartin: 難得會想在股版噓人 02/29 10:45
推 metallolly : 中國又贏了 02/29 10:48
噓 sheep2009 : Nv真的很多人沒上到 一堆招 02/29 10:49
噓 qazwsx1225 : 中國要贏多少次? 02/29 10:56
噓 ypes970813 : 繼續幻想 02/29 11:08
推 leon1757tw : 中又贏 02/29 11:08
推 xfile : 永動機的實現終於出現了嗎 02/29 11:17
噓 csluling : 中國的車我先不上 02/29 11:19
推 Lowpapa : 正確 AI泡沫了 10年後再來 02/29 11:23
噓 karta2359950: 真的做到再出來吹 很會唬爛 02/29 11:30
噓 followwar : Training 跟 inference 是兩回事 02/29 11:37
推 aegis43210 : 如果CPU可以靠特殊指令集達到和目前一堆ASIC一樣的 02/29 11:40
→ aegis43210 : 推論效能,那的確是x86陣營的大機會 02/29 11:40
噓 sxing6326 : 反指標的咖洨 02/29 11:48
噓 pacino : 網路泡沫(x). 達康泡沫(o) for 2000 02/29 11:55
噓 jamie81416 : 各位,中國又贏啦 02/29 12:21
噓 iceyeman : 少來 真出來股價就會跌了 我看還繼續往上噴勒 02/29 12:21
→ jamie81416 : 北京清華是個出產奴工的好地方,但說他們能搞啥 02/29 12:23
→ jamie81416 : 創新?哈哈哈哈 02/29 12:23
噓 dave070715 : 中國又贏了XDD一直贏一直贏,喔對了 再一年就2025了 02/29 12:31
→ dave070715 : ,怎麼還是被美國吊打XDD 中國韭菜就是要任命啦,美 02/29 12:31
→ dave070715 : 國肛中國;中國韭菜被黨肛QQ 02/29 12:31
推 wu2183 : 未看先誰中國又贏 02/29 12:49
→ eemail : 彎道超車概念 但你不要以為ㄧ直在彎道會變曲速XD 02/29 12:54
→ cannedtuna : 語言模型夠了就加上視覺模型 02/29 13:04
→ cannedtuna : 視覺夠了再塞物理模型 02/29 13:04
→ cannedtuna : 要說算力夠了還太早吧 02/29 13:04
噓 henry2003061: 這種文大家就別認真了 02/29 13:24
推 LDPC : cannedtuna這點子不錯耶 QQ等等搞一個測測看 02/29 13:32
→ blackjose : 要修改LLM結構,然後重新弄一套高效的,再訓練,通 02/29 13:33
→ blackjose : 常時程不會贏大力出奇蹟的。 02/29 13:33
→ blackjose : 現在瘋搶H100就是要拼時間上灘頭。 02/29 13:33
→ LDPC : 大力出奇蹟就scaling law所預測啊不過1b fgpa model 02/29 13:34
→ LDPC : 已經很久以前就有 shannon都可以拿來預測上限 02/29 13:35
→ LDPC : 不過mamba只是為了解決infernece 他在training端 02/29 13:35
→ LDPC : 還是有一堆限制和缺點RNN缺點就是不能並行運算 02/29 13:36
→ LDPC : 然後mamba那個做法會無法有效利用tensor core 02/29 13:36
噓 HenryLin123 : GPU inference? 02/29 13:43
→ oopFoo : Mamba用prefix-sums來避開rnn不能平行運算的問題。 02/29 13:43
→ LDPC : 樓上 那玩意不能有效利用tensor core 02/29 13:44
→ LDPC : Google最新那篇設計就好很多BlockState Transformer 02/29 13:45
→ LDPC : StateSpace+Transformer 我個人覺得比較符合現在 02/29 13:47
→ oopFoo : parallel scan(prefix sums)可以用tensor core啊。 02/29 13:48
→ oopFoo : 只是比較麻煩而已。Mamba的問題是"selective"會不會 02/29 13:49
→ oopFoo : 太loosy。目前看來是沒問題的,但還是需要更大的 02/29 13:50
推 LDPC : 以A100為例 fp32(19.5Tflops) Tensor-core(156Tflop 02/29 13:50
→ oopFoo : model來證實。Mamba最重要是"context"可以變得很大 02/29 13:50
→ oopFoo : 當你有unlimited context的時候。直接就用zero shot 02/29 13:52
→ oopFoo : learning了,RAG就不需要了,更容易使用。 02/29 13:53
→ LDPC : mamba優點就是hidden state update會根據input調整 02/29 13:53
→ LDPC : QQ這幾天來實作一下mamba好了 看一下訓練的成本 02/29 13:55
推 shadtalker : 扯到底中國為何CV LLM可以這麼強 02/29 14:08
→ yiersan : 中國自我安慰罷了 可憐那 02/29 14:48
→ vacuityhu : 不是啊...就算真的能無損效能改int, 那改完int省出 02/29 17:40
→ vacuityhu : 來的算力我也可以繼續擴增模型尺寸啊, 模型變大能 02/29 17:40
→ vacuityhu : 做的事更多更好一樣甩你好幾個車身, 不加大模型我 02/29 17:40
→ vacuityhu : 也可以加快運算效率啊, 影片即時翻譯字幕比你快比 02/29 17:40
→ vacuityhu : 你精準還是把你壓在地上摩擦, 追根究底算力碾壓的 02/29 17:40
→ vacuityhu : 前提下還在妄想什麼彎道超車? 02/29 17:40
噓 sa87a16 : 連晶片都要手工的國家,你吹慢慢吹 02/29 19:16
→ sa87a16 : 上次一堆韭菜被詐騙,這次一定不一樣對不對 02/29 19:17
→ musie : 笑死 一堆不懂AI的在亂噓 我公司在小模型可以重現 03/02 02:58
→ musie : 這對降低成本還有inference速度有很大的影響 03/02 02:58
→ musie : 這是今年以來最重要的Paper 03/02 03:01