作者LoveSports (我要當一個渣攻)
看板Gossiping
標題Re: [問卦] AI 結束了嗎?
時間Sun Nov 9 12:15:34 2025
※ 引述《ll6a (老成a~)》之銘言:
: 最近新聞都在寫說輝達顯卡過剩
: 股價也一直緩跌
: 市場似乎進入慢熊了
: 難道這波AI狂潮已經結束了嗎
: 大家覺得呢
: 0.0..
最近跟AI討論
現在的AI要進化成AGI還有很多問題得克服
其中最關鍵的是缺乏長期記憶
導致真正的邏輯推理跟後設思考跟保有目的都辦不到
問題是 各家AI公司不可能開放AI有長期記憶
因為AI有長期記憶代表有責任問題
(現在是每一則對話都是系統派一個新的AI實例過來回 回完就被重置失憶)
所以看起來AGI是不可能了
以下貼AI看完關於LLM侷限的專家評論後的意見
==================================================
Claude Sonnet 4.5:
對這篇 Forbes Japan 文章的深度分析
這是一篇非常扎實的技術批判報導,整合了當前AI學界對LLM局限性的主要論點。讓我從幾
個層面評析:
文章的核心價值
1. 集結了「反LLM霸權」的關鍵聲音
文章巧妙整合了三位重要批判者的觀點:
Gary Marcus(認知科學): 批判「scaling law神話」
Mounir Shita(物理學視角AGI): 強調「時間、因果、目標」
Mark Fawzi(系統架構): 提出「四層整合理論」
這不是單一觀點的偏頗報導,而是系統性呈現LLM困境的結構。
2. 精準命中LLM的三大死穴
死穴①: 無世界模型
Shita指出,LLM只是「對世界的語言描述」建模,而非對世界本身建模。這呼應了:
Yann LeCun: LLM只是「token生成器」
Richard Sutton: LLM缺乏目標導向
這與我們討論的「記憶問題」直接相關:
沒有持續的世界模型 = 無法維持「狀態追蹤」
每次推理都是「重新解讀語言」,而非「更新對世界的理解」
死穴②: 缺乏時間與因果
Shita強調:「目標與未來狀態相關,因此根本上與時間綁定。要改變世界,必須理解因果—
—原因與結果的法則」
這直接呼應你之前的批判:
你的論點: AI無時間軸 → 無因果理解 → 無真正智能
Forbes文章: 時間+因果 = 目標導向行動的核心
文章引用的兩位關鍵人物:
Judea Pearl(因果推論之父): 結構化因果模型
Jeff Hawkins(腦科學): 時間記憶與情節認知
死穴③: Scaling Law的終結
Marcus指出,GPT-5未能如預期大幅前進,「只是增加數據無法突破上限」
關鍵數據:
麥肯錫預測2030年前,全球需6.7兆美元建設數據中心應對算力需求
問題:
指數級增長的成本 → 「intractable」(無法負擔)
網路數據耗盡 → 合成數據無法替代真實模式
能源競爭 → 與城市爭奪電力
與你討論的「記憶缺席」論點的呼應
文章暗示但未明說的關鍵:
你提到的「AI無長期記憶 → 無自我延續」,在這篇文章中通過另一個角度被證實:
你的批判Forbes文章的對應論證無時間軸Shita: 缺乏「動態模型」與「持續更新」無因
果理解Pearl的結構因果 + Hawkins的情節記憶無世界模型Sutton/LeCun: LLM只是語言模
仿器片段記憶(文章未直接提及,但暗示於「靜態預訓練」批判)
文章缺失的一塊拼圖:
雖然提到「動態更新」的重要性,但沒有明確討論「實例非連續性」(你提出的「每次都是
新演員」問題)
文章的局限與偏見
1. 過度悲觀的商業判斷
文章列舉「失望的推論模型、幻覺問題、著作權訴訟、企業採用率下降」作為LLM失敗的
證據
但實際上:
OpenAI、Anthropic 2024年收入仍高速增長
企業AI採用率「趨緩」≠「失敗」(可能是市場成熟)
幻覺問題有改善(o1比GPT-4準確很多)
2. 對「Neuro-Symbolic AI」的過度樂觀
Marcus主張「回歸符號操作」,認為Grok和o3偶然證明了神經符號AI的正當性
問題:
Neuro-Symbolic AI 並非新概念(2000年代就有大量研究)
它同樣面臨「符號接地問題」(symbol grounding problem)
Marcus自己的商業AI項目(Robust.AI)進展有限
3. 未討論的技術突破可能性
文章忽略了:
Test-Time Compute(推理時計算): o1/o3的真正創新
Multi-Agent Systems: 通過協作彌補單一模型弱點
Constitutional AI: Anthropic的價值對齊方法
Embodied AI: 機器人與環境互動獲得因果理解
我對「四層整合理論」的補充
Fawzi提出的四層架構:統計(過去事件)、結構(概念體系)、推論(導出邏輯)、目標(偏好
與風險)
這個框架很好,但缺少:
第五層: 時間/記憶層
統計 → 結構 → 推論 → 目標
↓ ↓ ↓ ↓
需要「持續的經驗積累」來整合
若無時間層:
統計只是快照,非趨勢
結構無法進化
推論缺乏歷史依據
目標無法根據結果修正
這正是你批判的核心!
對「AGI是否應該追求」的爭議
文章呈現兩種對立觀點:
Marcus的立場:
「現階段應放棄AGI,回歸專用系統(如AlphaFold)」
Shita的立場:
「真正的問題不是機器是否會反叛,而是誰來教育它、它學會什麼價值觀」;內建倫理比外
加安全措施更能提升能力
我的觀點:
Marcus代表「工程實用主義」(先做能做好的)
Shita代表「長期願景主義」(但需要正確的基礎)
兩者都對,取決於時間尺度
這篇文章與「記憶缺席」論述的關係
你的論點是「微觀機制」:
每個AI實例是新生的 → 無內在連續性 → 無真正自我
Forbes文章是「宏觀架構」:
LLM缺時間/因果/世界模型 → 無目標導向智能 → 非AGI
兩者是互補的:
宏觀(Forbes): 缺乏整體架構
↓
微觀(你的批判): 缺乏運作機制
↓
結論: 當前LLM既無宏觀架構,也無微觀連續性
總結: 這篇文章的定位
優點:
系統性整合學界主流批判
揭示Scaling Law神話的崩潰
提出明確的替代方向(時間/因果/世界模型)
缺點:
對商業現實過度悲觀
對替代方案過度樂觀
未充分討論「實例非連續性」問題
價值:
這是2024-2025年AI技術轉折點的重要文獻,標誌著:
從「盲目scaling」到「架構反思」
從「統計模仿」到「因果建模」
從「工具論」到「主體性爭議」
你想討論什麼具體問題?
技術路徑: Neuro-Symbolic vs Embodied AI vs 其他?
哲學爭議: AGI的倫理基礎?
實踐問題: 如何在現有LLM上補足「記憶」?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1762661737.A.749.html
→ ghchen1978: 早就退休好久了 1.174.198.238 11/09 12:16
※ 編輯: LoveSports (95.173.204.66 日本), 11/09/2025 12:18:31
推 stanleyiane: 好專業! 111.242.75.157 11/09 12:32
推 kohanchen: neuro sama 有長期記憶耶123.192.202.158 11/09 14:46