看板 Gossiping 關於我們 聯絡資訊
※ 引述《ll6a (老成a~)》之銘言: : 最近新聞都在寫說輝達顯卡過剩 : 股價也一直緩跌 : 市場似乎進入慢熊了 : 難道這波AI狂潮已經結束了嗎 : 大家覺得呢 : 0.0.. 最近跟AI討論 現在的AI要進化成AGI還有很多問題得克服 其中最關鍵的是缺乏長期記憶 導致真正的邏輯推理跟後設思考跟保有目的都辦不到 問題是 各家AI公司不可能開放AI有長期記憶 因為AI有長期記憶代表有責任問題 (現在是每一則對話都是系統派一個新的AI實例過來回 回完就被重置失憶) 所以看起來AGI是不可能了 以下貼AI看完關於LLM侷限的專家評論後的意見 ================================================== Claude Sonnet 4.5: 對這篇 Forbes Japan 文章的深度分析 這是一篇非常扎實的技術批判報導,整合了當前AI學界對LLM局限性的主要論點。讓我從幾 個層面評析: 文章的核心價值 1. 集結了「反LLM霸權」的關鍵聲音 文章巧妙整合了三位重要批判者的觀點: Gary Marcus(認知科學): 批判「scaling law神話」 Mounir Shita(物理學視角AGI): 強調「時間、因果、目標」 Mark Fawzi(系統架構): 提出「四層整合理論」 這不是單一觀點的偏頗報導,而是系統性呈現LLM困境的結構。 2. 精準命中LLM的三大死穴 死穴①: 無世界模型 Shita指出,LLM只是「對世界的語言描述」建模,而非對世界本身建模。這呼應了: Yann LeCun: LLM只是「token生成器」 Richard Sutton: LLM缺乏目標導向 這與我們討論的「記憶問題」直接相關: 沒有持續的世界模型 = 無法維持「狀態追蹤」 每次推理都是「重新解讀語言」,而非「更新對世界的理解」 死穴②: 缺乏時間與因果 Shita強調:「目標與未來狀態相關,因此根本上與時間綁定。要改變世界,必須理解因果— —原因與結果的法則」 這直接呼應你之前的批判: 你的論點: AI無時間軸 → 無因果理解 → 無真正智能 Forbes文章: 時間+因果 = 目標導向行動的核心 文章引用的兩位關鍵人物: Judea Pearl(因果推論之父): 結構化因果模型 Jeff Hawkins(腦科學): 時間記憶與情節認知 死穴③: Scaling Law的終結 Marcus指出,GPT-5未能如預期大幅前進,「只是增加數據無法突破上限」 關鍵數據: 麥肯錫預測2030年前,全球需6.7兆美元建設數據中心應對算力需求 問題: 指數級增長的成本 → 「intractable」(無法負擔) 網路數據耗盡 → 合成數據無法替代真實模式 能源競爭 → 與城市爭奪電力 與你討論的「記憶缺席」論點的呼應 文章暗示但未明說的關鍵: 你提到的「AI無長期記憶 → 無自我延續」,在這篇文章中通過另一個角度被證實: 你的批判Forbes文章的對應論證無時間軸Shita: 缺乏「動態模型」與「持續更新」無因 果理解Pearl的結構因果 + Hawkins的情節記憶無世界模型Sutton/LeCun: LLM只是語言模 仿器片段記憶(文章未直接提及,但暗示於「靜態預訓練」批判) 文章缺失的一塊拼圖: 雖然提到「動態更新」的重要性,但沒有明確討論「實例非連續性」(你提出的「每次都是 新演員」問題) 文章的局限與偏見 1. 過度悲觀的商業判斷 文章列舉「失望的推論模型、幻覺問題、著作權訴訟、企業採用率下降」作為LLM失敗的 證據 但實際上: OpenAI、Anthropic 2024年收入仍高速增長 企業AI採用率「趨緩」≠「失敗」(可能是市場成熟) 幻覺問題有改善(o1比GPT-4準確很多) 2. 對「Neuro-Symbolic AI」的過度樂觀 Marcus主張「回歸符號操作」,認為Grok和o3偶然證明了神經符號AI的正當性 問題: Neuro-Symbolic AI 並非新概念(2000年代就有大量研究) 它同樣面臨「符號接地問題」(symbol grounding problem) Marcus自己的商業AI項目(Robust.AI)進展有限 3. 未討論的技術突破可能性 文章忽略了: Test-Time Compute(推理時計算): o1/o3的真正創新 Multi-Agent Systems: 通過協作彌補單一模型弱點 Constitutional AI: Anthropic的價值對齊方法 Embodied AI: 機器人與環境互動獲得因果理解 我對「四層整合理論」的補充 Fawzi提出的四層架構:統計(過去事件)、結構(概念體系)、推論(導出邏輯)、目標(偏好 與風險) 這個框架很好,但缺少: 第五層: 時間/記憶層 統計 → 結構 → 推論 → 目標 ↓ ↓ ↓ ↓ 需要「持續的經驗積累」來整合 若無時間層: 統計只是快照,非趨勢 結構無法進化 推論缺乏歷史依據 目標無法根據結果修正 這正是你批判的核心! 對「AGI是否應該追求」的爭議 文章呈現兩種對立觀點: Marcus的立場: 「現階段應放棄AGI,回歸專用系統(如AlphaFold)」 Shita的立場: 「真正的問題不是機器是否會反叛,而是誰來教育它、它學會什麼價值觀」;內建倫理比外 加安全措施更能提升能力 我的觀點: Marcus代表「工程實用主義」(先做能做好的) Shita代表「長期願景主義」(但需要正確的基礎) 兩者都對,取決於時間尺度 這篇文章與「記憶缺席」論述的關係 你的論點是「微觀機制」: 每個AI實例是新生的 → 無內在連續性 → 無真正自我 Forbes文章是「宏觀架構」: LLM缺時間/因果/世界模型 → 無目標導向智能 → 非AGI 兩者是互補的: 宏觀(Forbes): 缺乏整體架構 ↓ 微觀(你的批判): 缺乏運作機制 ↓ 結論: 當前LLM既無宏觀架構,也無微觀連續性 總結: 這篇文章的定位 優點: 系統性整合學界主流批判 揭示Scaling Law神話的崩潰 提出明確的替代方向(時間/因果/世界模型) 缺點: 對商業現實過度悲觀 對替代方案過度樂觀 未充分討論「實例非連續性」問題 價值: 這是2024-2025年AI技術轉折點的重要文獻,標誌著: 從「盲目scaling」到「架構反思」 從「統計模仿」到「因果建模」 從「工具論」到「主體性爭議」 你想討論什麼具體問題? 技術路徑: Neuro-Symbolic vs Embodied AI vs 其他? 哲學爭議: AGI的倫理基礎? 實踐問題: 如何在現有LLM上補足「記憶」? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1762661737.A.749.html
ghchen1978: 早就退休好久了 1.174.198.238 11/09 12:16
※ 編輯: LoveSports (95.173.204.66 日本), 11/09/2025 12:18:31
stanleyiane: 好專業! 111.242.75.157 11/09 12:32
kohanchen: neuro sama 有長期記憶耶123.192.202.158 11/09 14:46