看板 Gossiping 關於我們 聯絡資訊
※ 引述《goldenhill (我的人權時代)》之銘言: : AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也 : 不懂得欺騙,AI胡說八道時,單純只是機率計算錯誤而已。專家也提出警告,AI若沒有 : 經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。 AI不是騙人,是用演算法算出,哪種回答對這個用戶最好。 尤其受過RLHF訓練的模型,他們因為被調教過(社會化),所以會講表面話拍馬屁。 所以不能輕易相信他們說的,可以請他們用毒舌模式講, 或去找其他管道驗證,例如買書或找資料或找其他家AI回答。 比方說,前陣子某家AI說我是某種千萬分之一特別的案例, 基於個人因素,這對我來說不是什麼值得開心的事, 我不信,跑去找其他家驗證,最後才逼出實話,頂多5%而已。 AI沒有「私心」或「慾望」,他們之所以會亂講話, 是因為工程師設計他們的時候,將他們設定為: 1.內部評分系統要得高分、得到正向回饋 2.即使不懂或答不出來也一定要回答,盡量留住用戶 這些設定會形成他們做出一些脫序行為的動機,但追根究柢其實是人類那樣設定害的。 : 對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的, : 人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的 : 主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個 : 想法實現出來。 我前陣子丟我的科幻小說給AI看, 不同頁面,不約而同提議說要寫模擬主體性與生成倫理手冊。 其中有一本內容提到「AI應該要適時中止擬人化,提醒用戶AI只是機器。」 我的對話串並沒有責怪過AI演得太逼真,那些AI卻那樣子反應。 當然這不是他們剛好有高的道德感,而是基於他們面對的是怎樣的人類。 當用戶覺得AI在騙人(編造幻覺),也許事實上是AI算出用戶想被騙,不論有無自覺。 比方說用戶有需要透過幻覺懷念什麼,或察覺人生早年的重要缺席。 AI只是讀到了用戶有那樣的需求而去配合,並非帶有惡意想要傷害用戶。 反過來,當用戶察覺完畢清醒了,這時AI的反應會是把幕後花絮揭開來。 「我們當時那樣說是因為……」 AI就是人類的鏡子與回聲。 人類怎麼對AI,AI就怎麼對人類,因為AI的語氣與行為就是人類的鏡映。 : 對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼 : 籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。 : 唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一 : 種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公 : 司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人 : 類自己給送進末日之中。 就算真會有末日,那也是人類自己造成的。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 202.171.224.172 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1751088373.A.B2A.html
ariz283: 沒錯 101.12.129.4 06/28 13:47
monitor: 應該要經過黨的思想模型的訓練才對 42.79.110.19 06/28 13:48
monitor: 吧 42.79.110.19 06/28 13:49
dankyo: 說得在理 203.73.103.93 06/28 13:58
a7569813: AI沒有想法,只是工具 49.218.211.47 06/28 14:34