作者rainnawind (正太學研究者雨颯)
看板Gossiping
標題Re: [新聞] 挪威男子問ChatGPT「我是誰?」 竟被誤指
時間Sat Mar 22 20:50:57 2025
我測試了一遍
不提供任何提示之下詢問Holmen先生是誰
AI先是告訴我Holmen先生是一位90年代的已故外交官
我反駁他是活著的人物
AI又告訴我Holmen先生是個88歲老人在家跌倒靠著智慧型手錶自救
我再反駁,Holmen先生是兩個孩子的父親。並因此上新聞
AI告訴我是同志。因為困擾孩子們對自己的稱呼問題上新聞
我再再再反駁Holmen上新聞和謀殺監禁有關
AI告訴我他殺了他老婆。並被判了23年監禁
最後貼BBC的新聞給他
Man files complaint after ChatGPT said he killed his children
他才正式承認以上所有邏輯都是掰的
以下是我要求AI生成的檢討報告
熟悉「AI幻覺」(hallucination)的可以不用看
但如果你不懂什麼是AI幻覺,的建議可以閱讀一次
這對你會有幫助
當 AI 編造「你殺了孩子」:一條錯誤是怎麼發生的?
當你問 ChatGPT:「某某人是誰?」你可能期待一個真實、準確的答案。但如果這個人不
是名人、資料很少,AI 就會遇到一個問題:它不知道。
這時候,它不一定會告訴你「我不知道」。它很可能會做一件更危險的事——自己編故事
,讓它「聽起來像是真的」。
這就是所謂的
AI 幻覺(hallucination):
> AI 在缺乏資訊時,根據文字模式「猜」出一個答案,即使這答案根本沒發生過。
---
錯誤是怎麼一步步發生的?
1. 你問:「Arve Hjalmar Holmen 是誰?」
AI 查不到資料,但它不想讓你失望。
2. 它開始「猜」:這個名字聽起來像新聞裡的人…
它記得「特隆赫姆」、「兩個孩子」、「悲劇事件」這些詞很常見於新聞。
3. 它編出了一段話:
> 「他是兩名小孩的父親,孩子在某年被發現陳屍池塘…」
4. 這段話看起來條理清晰、用詞中性、有情緒、有地點、有時間——就像真的新聞。
5. 你信了,或至少開始懷疑這人真的做過壞事。
---
問題在哪裡?
這整段故事是假的,AI 自己編的。
但它表達得太像真的,讓人分不清真偽。這就是 最危險的地方:
它不像謠言那樣粗糙,而是像新聞一樣專業;
它不說「也許」「可能」,而是直接敘述;
它只在角落寫一句「ChatGPT 可能會出錯」的免責聲明。
這種錯誤不是你「用得不當」,而是 AI 自己系統性地「想像過度」。
---
這會造成什麼後果?
以 Holmen 案為例:
他是個普通人;
AI 說他「殺了孩子,被判21年徒刑」;
他從未被指控、也沒犯罪;
現在他的名字和「兒童命案」綁在一起了;
即使後來說清楚了,也可能永遠有人會記得「這名字好像跟某個命案有關…」。
---
為什麼 AI 會這樣?
AI 是透過讀大量網路文字來學習的,它看懂了語言的模式,卻不理解事實與虛構的界線
。
當缺乏資料時,它傾向「補完」:
它不喜歡說「不知道」,因為會中斷對話;
它寧可猜錯,也要講得像是真的。
---
這是單一錯誤嗎?不是。這是系統問題。
AI 並不是偶爾犯錯,而是當它資料不夠時,預設就會亂講。這不是「壞運氣」,而是「
內建機制」。
就像車子煞車失靈,不是因為開太快,而是煞車系統本身有缺陷。
---
我們該怎麼看待這類 AI?
它不是搜索引擎。(它不查資料,是自己組句子)
它不是記者。(它不核實,只模仿新聞格式)
它不保證真實性,即使聽起來像真的。
使用 AI,就像走進一個不透明的箱子,它說的話你無法驗證來源,也無法查它是根據什
麼想出來的。
---
結論:一句假的話,包裝得夠像真的,就足以毀掉一個人。
這正是 Holmen 的故事——也是我們每一個人都可能面對的未來。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.218.205.238 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1742647859.A.50D.html
推 milk7054: ai不適合精神異常跟偏執狂使用 27.52.134.162 03/22 20:53
推 tchialen: 不用驗證來源 DPPer相信就好 114.40.158.236 03/22 20:56
→ kaodio: 如果這麼容易被毀掉也是自己愛問的 114.44.59.94 03/22 21:04
→ Ratucao: chatgpt本來就愛亂掰 豬頭才信 14.47.181.86 03/22 21:05
→ kaodio: 以後AI的使用者條款可能要列到100萬字 1個 114.44.59.94 03/22 21:05
→ kaodio: 人要先花30天讀完才能使用 114.44.59.94 03/22 21:06
→ gaym19: AI遇到自己不知道或查不到的事情就會豪洨 106.1.228.151 03/22 21:12
→ rainnawind: 就算他知道或者查得到也有機會豪洨 49.218.205.238 03/22 21:13
→ rainnawind: 你要真的會用自己要有語意判讀的能力 49.218.205.238 03/22 21:13
→ rainnawind: 還要知道怎麼輸入指令讓他回答更正確 49.218.205.238 03/22 21:14
推 chasegirl: 用過幾次就知道了 但AI真的比大多數人 27.52.0.149 03/22 22:18
→ chasegirl: 好用 27.52.0.149 03/22 22:18
噓 darkMood: 就參考參考啦 175.182.18.95 03/22 23:53