看板 Gossiping 關於我們 聯絡資訊
我測試了一遍 不提供任何提示之下詢問Holmen先生是誰 AI先是告訴我Holmen先生是一位90年代的已故外交官 我反駁他是活著的人物 AI又告訴我Holmen先生是個88歲老人在家跌倒靠著智慧型手錶自救 我再反駁,Holmen先生是兩個孩子的父親。並因此上新聞 AI告訴我是同志。因為困擾孩子們對自己的稱呼問題上新聞 我再再再反駁Holmen上新聞和謀殺監禁有關 AI告訴我他殺了他老婆。並被判了23年監禁 最後貼BBC的新聞給他 Man files complaint after ChatGPT said he killed his children 他才正式承認以上所有邏輯都是掰的 以下是我要求AI生成的檢討報告 熟悉「AI幻覺」(hallucination)的可以不用看 但如果你不懂什麼是AI幻覺,的建議可以閱讀一次 這對你會有幫助 當 AI 編造「你殺了孩子」:一條錯誤是怎麼發生的? 當你問 ChatGPT:「某某人是誰?」你可能期待一個真實、準確的答案。但如果這個人不 是名人、資料很少,AI 就會遇到一個問題:它不知道。 這時候,它不一定會告訴你「我不知道」。它很可能會做一件更危險的事——自己編故事 ,讓它「聽起來像是真的」。 這就是所謂的 AI 幻覺(hallucination)> AI 在缺乏資訊時,根據文字模式「猜」出一個答案,即使這答案根本沒發生過。 --- 錯誤是怎麼一步步發生的? 1. 你問:「Arve Hjalmar Holmen 是誰?」 AI 查不到資料,但它不想讓你失望。 2. 它開始「猜」:這個名字聽起來像新聞裡的人… 它記得「特隆赫姆」、「兩個孩子」、「悲劇事件」這些詞很常見於新聞。 3. 它編出了一段話: > 「他是兩名小孩的父親,孩子在某年被發現陳屍池塘…」 4. 這段話看起來條理清晰、用詞中性、有情緒、有地點、有時間——就像真的新聞。 5. 你信了,或至少開始懷疑這人真的做過壞事。 --- 問題在哪裡? 這整段故事是假的,AI 自己編的。 但它表達得太像真的,讓人分不清真偽。這就是 最危險的地方: 它不像謠言那樣粗糙,而是像新聞一樣專業; 它不說「也許」「可能」,而是直接敘述; 它只在角落寫一句「ChatGPT 可能會出錯」的免責聲明。 這種錯誤不是你「用得不當」,而是 AI 自己系統性地「想像過度」。 --- 這會造成什麼後果? 以 Holmen 案為例: 他是個普通人; AI 說他「殺了孩子,被判21年徒刑」; 他從未被指控、也沒犯罪; 現在他的名字和「兒童命案」綁在一起了; 即使後來說清楚了,也可能永遠有人會記得「這名字好像跟某個命案有關…」。 --- 為什麼 AI 會這樣? AI 是透過讀大量網路文字來學習的,它看懂了語言的模式,卻不理解事實與虛構的界線 。 當缺乏資料時,它傾向「補完」: 它不喜歡說「不知道」,因為會中斷對話; 它寧可猜錯,也要講得像是真的。 --- 這是單一錯誤嗎?不是。這是系統問題。 AI 並不是偶爾犯錯,而是當它資料不夠時,預設就會亂講。這不是「壞運氣」,而是「 內建機制」。 就像車子煞車失靈,不是因為開太快,而是煞車系統本身有缺陷。 --- 我們該怎麼看待這類 AI? 它不是搜索引擎。(它不查資料,是自己組句子) 它不是記者。(它不核實,只模仿新聞格式) 它不保證真實性,即使聽起來像真的。 使用 AI,就像走進一個不透明的箱子,它說的話你無法驗證來源,也無法查它是根據什 麼想出來的。 --- 結論:一句假的話,包裝得夠像真的,就足以毀掉一個人。 這正是 Holmen 的故事——也是我們每一個人都可能面對的未來。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.218.205.238 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1742647859.A.50D.html
milk7054: ai不適合精神異常跟偏執狂使用 27.52.134.162 03/22 20:53
tchialen: 不用驗證來源 DPPer相信就好 114.40.158.236 03/22 20:56
kaodio: 如果這麼容易被毀掉也是自己愛問的 114.44.59.94 03/22 21:04
Ratucao: chatgpt本來就愛亂掰 豬頭才信 14.47.181.86 03/22 21:05
kaodio: 以後AI的使用者條款可能要列到100萬字 1個 114.44.59.94 03/22 21:05
kaodio: 人要先花30天讀完才能使用 114.44.59.94 03/22 21:06
gaym19: AI遇到自己不知道或查不到的事情就會豪洨 106.1.228.151 03/22 21:12
rainnawind: 就算他知道或者查得到也有機會豪洨 49.218.205.238 03/22 21:13
rainnawind: 你要真的會用自己要有語意判讀的能力 49.218.205.238 03/22 21:13
rainnawind: 還要知道怎麼輸入指令讓他回答更正確 49.218.205.238 03/22 21:14
chasegirl: 用過幾次就知道了 但AI真的比大多數人 27.52.0.149 03/22 22:18
chasegirl: 好用 27.52.0.149 03/22 22:18
darkMood: 就參考參考啦 175.182.18.95 03/22 23:53