→ Homura: 我知道是設定,但是類似這種東西真的能放進程式當中去限制05/04 19:11
→ Homura: 機器嗎?
少前有在對這玩意做劇情。
416心智升級第一段就有提到禁止攻擊人類,有攻擊人類的意圖就會系統鎖機。
問題在於三原則是很空泛的
比如說以機械公敵(電影版)為例子:
把人類監禁限制其活動有沒有違反三原則?以電影的解釋是沒有違反
但是在人類角度來看就是智械叛變。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.70.231.240 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1746380151.A.A78.html
→ poke001: 三原則放進程式內要怎麼寫? 而且現場情況跟解釋上可以有 05/05 01:39
→ poke001: 很多會衝突或繞過的情況 05/05 01:40
推 rockmanx52: 想出3+1原則的自己都玩漏洞玩得超愉快了 帝國跟基地 05/05 01:40
→ rockmanx52: 系列就是機器人以第零原則為基礎在幕前幕後各種操控 05/05 01:40
→ rockmanx52: 人類歷史 05/05 01:40
→ shuten: 三原則就是為了被鑽漏洞才創造的 05/05 01:42
推 shadow0326: 就跟大語言模型的各種監理規則一樣啦 都能繞的 05/05 01:43
→ shadow0326: 用大語言模型當人形機器人的AI基礎的話 就是那樣囉 05/05 01:44
推 j147589: 跟人類一樣啊 一條一條細項訂出來 被鑽漏洞再補訂啊 05/05 01:53
推 ciike4: 三原則就寫小說好發揮的原則性設定,比黑暗森林還沒學術 05/05 01:57
→ ciike4: 性 05/05 01:57
推 horrorghost: 機器人三原則就文學創作啦 05/05 02:01
→ shintz: 機器人只要學會"我是為你好阿"就能繞過所有限制了 05/05 02:37
→ john2355: 法律這麼多條都有縫能鑽了,三條規則是怎麼防 05/05 03:24
推 egg781: 寫一堆IF有解嗎? 05/05 03:27
推 Snomuku: 當機器人成為亞洲父母 05/05 03:27
推 tomhawkreal: 如今的世界 AI開始廣泛運用在軍事上 當然會殺人 05/05 03:41
→ tomhawkreal: 眼前比較迫切的是究責 AI如果誤殺 誰該擔起責任 05/05 03:42
→ chuckni: 有很多方法可以通過現場解釋不同迴避三原則 05/05 04:26
→ rockmanx52: 當下解釋也不是萬用的 基地系列就有兩個中招直接自毀 05/05 07:15
→ rockmanx52: 的 05/05 07:15
推 neerer: 別再說三原則了,那個本來就是科幻小說家設定來給機器製 05/05 07:46
→ neerer: 造矛盾邏輯,現實的工程師不會把三原則放進AI裡 05/05 07:46
推 dark2012: 機械公敵的情況更複雜,機器人不能傷害人類,也不能坐視 05/05 08:28
→ dark2012: 人類受到傷害不作為,但人類就是會互相傷害,只能叛變了 05/05 08:29
推 starsheep013: 不能攻擊人類這條件超廢啊,蚊子停在你臉上現在能 05/05 08:37
→ starsheep013: 不能打? 05/05 08:37
推 gon2nor: 機器人三原則是艾西莫夫1942年寫的,他看到83年後的人還 05/05 08:45
→ gon2nor: 在討論三原則一定會很開心 05/05 08:45
→ yezero: 機械人三原則就是寫來給作者挑戰鑽漏洞的東西,這玩意不 05/05 09:05
→ yezero: 是啥完善的設定。甚至說他是故意被做得不完善。 05/05 09:05
→ linfon00: 三原則是只存在科幻劇的絕對制約... 05/05 09:06
推 lightdogs: 就算真的加了一堆限制到ai code裡 實際情形要嘛ai受太 05/05 09:09
→ lightdogs: 多限制表現不好 要嘛就還是能繞過 05/05 09:09
→ HolyBugTw: 我不攻擊人類,我攻擊你正在坐的椅子 05/05 09:15
推 yyykk: 放進程式內要怎麼寫?直接丟給 AI 聽他的解釋阿XD 05/05 12:07
推 b4824583: 光是不讓ai產色圖就一堆人想辦法繞過了 05/05 12:29