推 ImHoluCan : DeepSeek 完全打開新世界大門02/03 14:57
→ ImHoluCan : 要是增加硬體能更聰明,那肯定有賺頭 02/03 14:57
推 hulu63 : 感覺這篇很有見地,雖然看不懂但只能推了 02/03 15:03
※ 編輯: zxwxz (42.73.112.255 臺灣), 02/03/2025 15:09:08
→ Homeparty : LLM到不了AGI的 02/03 15:10
推 Mosskappa : 板上恐慌仔只會喊nv 50 tsm100 02/03 15:10
推 maxangel : 運算成本減少只會讓更多應用投入 02/03 15:11
推 intointo : 好吧 吃起來有點吃力 02/03 15:17
推 capssan : 我覺得應該說只有LLM達不到AGI 02/03 15:17
推 abcd5566 : 訓練歸訓練。要供幾億人用的推論花的才多 02/03 15:23
→ CCH2022 : 短線客盤中決鬥只是過程。 02/03 15:23
→ CCH2022 : 法人機構也是要買賣才有收入。 02/03 15:23
→ CCH2022 : 只要人類經濟活動繼續,硬體天花板永遠會被打破, 02/03 15:23
→ CCH2022 : 我是不可能回去用十幾年前的電腦跟手機還有汽車、 02/03 15:23
→ CCH2022 : 家電等應用,如果誰說可以那代表他從此時此刻就不 02/03 15:23
→ CCH2022 : 需要再升級所有硬體的產品。 02/03 15:23
噓 g1254501 : 聽君一席話 如聽一席話 02/03 15:27
→ cablate : LLM由於學習底層機制所以他永遠到不了AGI,這是學 02/03 15:58
→ cablate : 術界共識了,所以思考鏈也只是噱頭而已,不會真的 02/03 15:58
→ cablate : 有人以為LLM有神經自主思考能力吧? 02/03 15:58
推 duriamon : 人腦參數量70B功耗60W記憶體4GB,好好想想吧!呵呵 02/03 16:02
→ duriamon : ! 02/03 16:02
→ cablate : 拿人腦比?要確欸,機器最大的毛病就是要用10句甚 02/03 16:10
→ cablate : 至100句話解釋人類用1句話就能懂的東西 02/03 16:10
推 duriamon : 當然是人腦比呀!死抱那種虛無飄渺算力增加無上限的 02/03 16:13
→ duriamon : 理論是被Altman洗腦的傻子嗎?連微軟都不買單了,AI 02/03 16:13
→ duriamon : 要用實際面來看去做發展而不是什麼Scaling Law一直 02/03 16:13
→ duriamon : 往上加,我還以為是參加老鼠會呢!笑死! 02/03 16:13
推 duriamon : 實際上AI模型發展的基礎目的是達到類似於人類水準就 02/03 16:20
→ duriamon : 可以應用了,AI的優點是可以大量複製、記憶體一定超 02/03 16:20
→ duriamon : 過4GB,熱插拔隨時上線轉換成需要的專家,這樣就足 02/03 16:20
→ duriamon : 夠裝載到AI機器人裡面了,該不會有人以為要AGI才能 02/03 16:20
→ duriamon : 自動駕駛吧? 02/03 16:20
→ duriamon : 那我們平常開車通勤的人類是智障嗎? 02/03 16:21
推 staytuned74 : agi 搞不好跟之前90年代一樣,等得比預期久 02/03 16:34
推 duriamon : deep seek會紅就是因為看到了我講的方向的曙光,要 02/03 16:39
→ duriamon : 不然繼續給Altman投錢虧死你,他還整天作弊玩花招, 02/03 16:39
→ duriamon : Altman就是個生意人,當初看到ChatGPT之父Ilya提出S 02/03 16:39
→ duriamon : caling Law理論就拿來整天掛在嘴邊,肖想跟摩爾定律 02/03 16:39
→ duriamon : 一樣可以用來洗腦人,那個微軟就是第一代憨憨,現在 02/03 16:39
→ duriamon : 人家下車了,有人繼續接棒,可憐哪!軟銀,呵呵! 02/03 16:39
→ duriamon : 美國是要搞AGI沒錯,但是沒人說AGI一定會遵循Scalin 02/03 16:44
→ duriamon : g Law,蒸餾就是這個現象的部分答案,因為你以為參 02/03 16:44
→ duriamon : 數量400B以上很好,但是裡面有很多垃圾知識。 02/03 16:44
→ duriamon : 模型為了回答問題每次轉那個400B參數根本是浪費資源 02/03 16:45
→ duriamon : ,呵呵! 02/03 16:45
推 kotorichan : scaling law 快沒訓練資料了 02/03 16:56
→ kotorichan : 無限參數 + 無限訓練資料 是有可能AGI啦 02/03 16:56
推 duriamon : 現在都想用合成數據去搞,但AI又不是人類,缺乏對現 02/03 17:03
→ duriamon : 實世界的理解,很多合成數據都亂七八糟,要不然就是 02/03 17:04
→ duriamon : AI偷懶說謊隨便交差,笑死! 02/03 17:04
推 edward0811 : 看起來蠻沒未來的,燒錢燒到破產吧 02/03 17:06
推 duriamon : 其實能不能本地運用目前是卡在老黃,老黃那個極惡商 02/03 17:12
→ duriamon : 業刀法限制了地端運用。 02/03 17:12
→ lavign : scaling law已經平了 02/03 18:33
→ lavign : 離散的資料不能表現連續的真實世界 02/03 18:36
推 sustainer123: AGI短期目標 猛 02/03 19:43
推 toaste791214: 這篇正解! 02/03 20:25
噓 ksjr : 人情世故 呵呵 02/04 00:06