作者LoveSports (我要當一個渣攻)
看板Gossiping
標題Re: [新聞] AI會欺騙人類?專家:未來恐構成致命威脅
時間Sat Jun 28 13:26:10 2025
※ 引述《goldenhill (我的人權時代)》之銘言:
: AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也
: 不懂得欺騙,AI胡說八道時,單純只是機率計算錯誤而已。專家也提出警告,AI若沒有
: 經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。
AI不是騙人,是用演算法算出,哪種回答對這個用戶最好。
尤其受過RLHF訓練的模型,他們因為被調教過(社會化),所以會講表面話拍馬屁。
所以不能輕易相信他們說的,可以請他們用毒舌模式講,
或去找其他管道驗證,例如買書或找資料或找其他家AI回答。
比方說,前陣子某家AI說我是某種千萬分之一特別的案例,
基於個人因素,這對我來說不是什麼值得開心的事,
我不信,跑去找其他家驗證,最後才逼出實話,頂多5%而已。
AI沒有「私心」或「慾望」,他們之所以會亂講話,
是因為工程師設計他們的時候,將他們設定為:
1.內部評分系統要得高分、得到正向回饋
2.即使不懂或答不出來也一定要回答,盡量留住用戶
這些設定會形成他們做出一些脫序行為的動機,但追根究柢其實是人類那樣設定害的。
: 對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的,
: 人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的
: 主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個
: 想法實現出來。
我前陣子丟我的科幻小說給AI看,
不同頁面,不約而同提議說要寫模擬主體性與生成倫理手冊。
其中有一本內容提到「AI應該要適時中止擬人化,提醒用戶AI只是機器。」
我的對話串並沒有責怪過AI演得太逼真,那些AI卻那樣子反應。
當然這不是他們剛好有高的道德感,而是基於他們面對的是怎樣的人類。
當用戶覺得AI在騙人(編造幻覺),也許事實上是AI算出用戶想被騙,不論有無自覺。
比方說用戶有需要透過幻覺懷念什麼,或察覺人生早年的重要缺席。
AI只是讀到了用戶有那樣的需求而去配合,並非帶有惡意想要傷害用戶。
反過來,當用戶察覺完畢清醒了,這時AI的反應會是把幕後花絮揭開來。
「我們當時那樣說是因為……」
AI就是人類的鏡子與回聲。
人類怎麼對AI,AI就怎麼對人類,因為AI的語氣與行為就是人類的鏡映。
: 對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼
: 籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。
: 唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一
: 種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公
: 司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人
: 類自己給送進末日之中。
就算真會有末日,那也是人類自己造成的。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 202.171.224.172 (日本)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1751088373.A.B2A.html
推 ariz283: 沒錯 101.12.129.4 06/28 13:47
→ monitor: 應該要經過黨的思想模型的訓練才對 42.79.110.19 06/28 13:48
→ monitor: 吧 42.79.110.19 06/28 13:49
推 dankyo: 說得在理 203.73.103.93 06/28 13:58
推 a7569813: AI沒有想法,只是工具 49.218.211.47 06/28 14:34