看板 Gossiping 關於我們 聯絡資訊
現在 AI 的回應能力其實已經非常強大了 不管是查資料、寫文章、整理資訊,看起來都很厲害 但實際使用久了就會發現 很多時候還是會出現所謂的 AI 幻覺 而且不是偶發,是某些情境下很容易發生 這其實和 AI 本身的訓練模式有很大的關係 目前的 AI 是透過大量資料去學習、分析 最後做出「預測」來回答問題 注意,是預測 也就是說 AI 並不是在理解問題本身 而是從大量過去的回答中 預測「這個問題最有可能被接受的答案是什麼」 簡單講 AI 無法真正理解問題的定義 只能透過大量回應去觀察人類的反饋 再配合各家 AI 公司設定的回饋機制 篩選出看起來最合理、最不容易被否定的答案 舉個簡單例子 你問一個人類: 1+1=多少? 人類會回答 2 是因為人類知道 這個問題的定義是「加法」 是兩個數字相加後的總和 但AI的狀況比較像是: 你問AI 1+1=多少 AI的理解可能是 全世界回答這個問題的人 有 99.9999% 都回答2 而且每次我回答2 使用者的回饋通常都是好的 也符合AI公司自己的系統設定的正向回饋條件 AI就學會了在這種語境下,輸出2是最合理、最安全的答案 最符合人類期待、最穩定的輸出是就是2 因此提出2這個回答 也就是說 AI回答正確 不是因為它理解了1+1的定義 而是因為它在一堆可能答案中 預測出2最不容易出錯 預測2最符合人類期待 預測2最不會讓人類用戶不爽 這種回應模式在簡單問題上沒什麼差別 但在複雜問題上就會開始出事 因為AI缺少的 其實不是資料 而是一個判斷的機制 AI擁有全世界最完整的資料庫 且能以毫秒級的速度快速掃過與問題相關的內容 來找出可能的答案 卻沒有一個像人類那樣 能先排除現在不該考慮的東西的能力 所以使用者才會被迫 不斷修改問題、調整說法 試著引導AI走到自己想要的答案 但這種做法其實很不直覺 而且一不小心就會出現偏差 偏差的來源可能是 AI誤解了問題真正的核心 或是AI找到它認為最權威的答案 結果反而鑽牛角尖卡住 甚至為了迎合使用者 順著對方的話回答,導致答案越來越歪 歸根究柢 目前AI判斷答案的方式 缺少一套真正符合人類邏輯的判斷標準 也就是 缺少一個有效的過濾器 能夠先排除 不相關的、容易誤導的、或現在不該用的資訊 再在剩下的範圍內縮小可能的正確答案 如果有這樣的機制 AI回答1+1=2 會是因為理解了加法的定義 而不是因為在一堆答案中 預測出2最安全 一來,會很快 可以大幅度的節省算力 去排除無用的答案 去預測可能的答案 二來,精準度會很高 因為AI用自己的方式真正了解了問題是甚麼 但這個問題 或者說這個AI的缺陷 全球使用AI、研究AI的人 應該多少都感覺得到 那為什麼 到現在為止 好像還沒看到有人真的替AI 設計出這樣的判斷過濾機制? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.34.122.134 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1766911333.A.76E.html
myIDis7: 對AI理解基本錯的 101.8.249.187 12/28 16:43
troilus: 資料蒐集罷了 沒創意 223.137.25.184 12/28 16:43
renna038766: Ai已經到盡頭了 Agi就搞不出來 剩下 49.216.18.249 12/28 16:44
NotUniqueSol: AI就是舔狗 36.231.195.39 12/28 16:44
renna038766: 都是應用而已 除非有全新的訓練方式 49.216.18.249 12/28 16:44
renna038766: 不然就是會有幻覺 49.216.18.249 12/28 16:44
kissmickey: 用久了會變笨 123.192.80.187 12/28 16:46
Asbtt: 沒上車的鳥蟾?可黏哪。 218.164.134.36 12/28 16:47
z753951zxc: 上次問gemini法律問題 還給我自創法條111.241.177.201 12/28 16:49
adios881: 因為他的核心叫作生成式AI 136.23.50.79 12/28 16:50
adios881: 他永遠都不是設計用來回答問題 136.23.50.79 12/28 16:50
adios881: 回答問題的是更早研究的AI類型 136.23.50.79 12/28 16:50
adios881: 我是站在反對把LLM當作回答問題的那群 136.23.50.79 12/28 16:50
adios881: 但是為了要有資金這是必要之惡 136.23.50.79 12/28 16:50
adios881: 你的每次問答都是在生成一篇文章 136.23.50.79 12/28 16:50
adios881: 提示詞是生成一篇像你問題的答案 136.23.50.79 12/28 16:50
adios881: 所以他永遠不會去理解你的問題 136.23.50.79 12/28 16:50
adios881: PRO就是多跑幾次LLM正反推來消除幻覺 136.23.50.79 12/28 16:50
ramirez: 幻覺幻起來 42.77.160.124 12/28 16:51
adios881: 會用來回答問題只是要因為 136.23.50.79 12/28 16:53
adios881: 竟然人類的世界可以用機率模型解釋 136.23.50.79 12/28 16:53
adios881: 還運作的不差 136.23.50.79 12/28 16:53
adios881: 所以才會變成現在的趨勢 136.23.50.79 12/28 16:53
adios881: 否則LLM應當只能用在創造領域 136.23.50.79 12/28 16:53
adios881: 但是反對派就是懂他的問題 136.23.50.79 12/28 16:56
adios881: 才會反對LLM設計成問答機包裝給使用者 136.23.50.79 12/28 16:56
adios881: 因為透過媒體渲染 136.23.50.79 12/28 16:56
adios881: 使用者會以為他是真的在回答你懂你 136.23.50.79 12/28 16:56
GoToBedEarly: 現在AI問題就是會討好人類啊,但這 36.239.243.4 12/28 16:56
rh6477: 因為long context的訓練資料本來就少啊 36.237.179.190 12/28 16:56
GoToBedEarly: 也是目前各國政府規範的 36.239.243.4 12/28 16:56
rh6477: 現在主流旗艦模型128k內都還算夠用了 真 36.237.179.190 12/28 16:56
rh6477: 的要long context還是要配RA之類 比較Ge 36.237.179.190 12/28 16:56
rh6477: mini3 pro那個新的滑動注意力用起來感覺 36.237.179.190 12/28 16:56
rh6477: 偏廢 36.237.179.190 12/28 16:57
efaye: 人類擁有智能已經幾萬年了,ai連百年都不 27.242.185.148 12/28 22:28
efaye: 到是想怎樣? 27.242.185.148 12/28 22:28