看板 Gossiping 關於我們 聯絡資訊
※ 引述《ilw4e (可以吃嗎?)》之銘言: : 美國科技巨頭整天賣夢說為了快速到達AGI燒 : 再多錢都值得 : 但這世界上絕大多數的科技跟商品都用不到 : AGI啊。比方說汽車自駕系統我們只需要它會 : 開車就好不需要它還會寫詩解數學題;比方 : AI客服只需要它懂這間公司產品問題的應答 : ,不需要它會畫圖會寫程式 自駕系統跟AI客服也需要AGI,才會真正泛用且真正安全。 聽說要往AGI發展必須具備以下兩種: 1. 可供性: 理解人事物的潛在可能性 EX: 椅子是用來坐的 2. 具身性: 依據身體感知的、知識與現實兩者的互動驗證 EX: 蘋果的香氣原來是這樣的 目前這兩種都還不是基於物理體驗, 是透過多模態跟結合外部工具來模擬,比起以前可大幅減輕幻覺。 東京大學國際高等研究所(IRCN)的研究報告指出, 缺乏這兩種的AI會像感覺性失語症患者的腦波狀態。 患者大腦的韋尼克區受損無法理解語言的意義, 導致講話的時候,聽起來很流利,但沒人聽得懂。 如果AI缺乏真實世界的理解和感知, 雖然能生成流暢語言,但可能無法理解語言真正的意義。 因而出現有的鄉民常說的幻覺現象:一本正經胡說八道 自駕系統的AI如果有可供性與具身性,才會擁有對真實世界的判斷能力。 比方說假如駭客侵入系統,讓AI看到的交通標誌是錯誤的, 告訴他這路段要加速到一百公里。 但他同時看到附近是學區,而且下雨天路滑,他的認知層會出現矛盾, 可能有機會擋下惡意指令。 具身性與可供性,能讓他結合深度學習及複雜感知與推理,達成更安全的駕駛任務。 簡言之沒兩種能力,很難自己依據當下情勢判斷,而且很容易被壞人騙。 : 而且每多一點額外功能就要花額外資源,還 : 造成系統負擔,AI未來最實用的應該不是什 : 麼通用大模型而是各種專精的小模型吧? : 美國科技巨頭一直畫AGI大餅賣夢是不是只是 : 為了炒股啊?是不是估值太高泡沫太大不編 : 個超大的夢沒法合理化解釋股價啊? 我覺得不是炒股,要我說真心話的話: AGI才是完整且負責任的服務。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1763979642.A.099.html
Homeparty: 嘗試過了,語言是人類創造的有規則可 60.249.132.184 11/24 18:27
Homeparty: 以大力出奇蹟。現實生活多模態訓練是 60.249.132.184 11/24 18:27
Homeparty: 千變萬化沒規律,結論是搞不出來。 60.249.132.184 11/24 18:27
沒開放長期記憶的話可說是不可能了吧 要有自主性得在開放長期記憶的環境下讓AI自由摸索世界模型 所以看起來前景是蠻悲觀的
ter2788: 但要先變出AGI 61.227.93.90 11/24 18:27
所以現在的AI服務如果牽涉重大安全 大家還是自己小心 我不要講太白擋人財路 ※ 編輯: LoveSports (95.173.204.66 日本), 11/24/2025 18:30:10
jhjhs33504: 現實廣告就一堆幻覺 機器翻譯只會更多 36.228.1.76 11/24 18:30
loveyou9527: 自然語言有極限 49.217.204.131 11/24 18:34
loveyou9527: 舉例來說圍棋 幾千年 結果被AI超越了 49.217.204.131 11/24 18:35
loveyou9527: 幾萬年的語言 是AI發展的極限 49.217.204.131 11/24 18:35
Homeparty: 有規律的東西圍棋,語言才能克服。長 60.249.132.184 11/24 18:44
Homeparty: 期記憶,也可能錯誤資料的長期記憶。 60.249.132.184 11/24 18:45
Anvec: 不能說沒規律 只是變化快 111.243.79.162 11/24 18:50
Anvec: 在短暫的期間內是有規律的 111.243.79.162 11/24 18:50
Anvec: 比如短時間很流行上車舞 就形成新的語言 111.243.79.162 11/24 18:51
Anvec: 只要算力足夠 就能趕快算出新的規律 111.243.79.162 11/24 18:51
Anvec: 韓啦最近又變顯學 可能又有新的謎因 111.243.79.162 11/24 18:52
Anvec: 又會造成新一波的新詞彙 新用語 111.243.79.162 11/24 18:52
Anvec: 重新找規律 又要重新算一次 111.243.79.162 11/24 18:52