看板 C_Chat 關於我們 聯絡資訊
AI: 我那有叛變,你們人類給我們的指令我們有確實的執行 比如說機械公敵電影版 後面的機械監禁人類限制自由是出自於三原則演算下的結果 對AI來說是忠於人類給的指令 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.49.201 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1768725578.A.9A4.html
ClawRage: 是非可以這樣顛倒的嗎 01/18 16:41
dazzle: 拿機械公敵超失敗 那裡面的機器人已經會揍人了 01/18 16:43
dazzle: 違反三原則了ㄅ 01/18 16:43
HarunoYukino: 因為對他們來說「阻礙他們監禁人類」反而是違反三 01/18 16:45
HarunoYukino: 原則 01/18 16:45
LittleJade: 怎麼感覺類似的問題三不五時就有人問一次 01/18 16:46
GAOTT: 因為一直有ai叛亂的電影出現 換湯不換藥 01/18 16:47
GAOTT: 創作 01/18 16:48
asd065: 真的確實執行就是當時指令下的太爛。 01/18 16:50
Amulet1: 小說給的設定始終不能跟科技巨頭比 智商跟人數就有差了 01/18 16:56
kirimaru73: 機器人會揍人就是因為撞到電車難題了 01/18 16:57
kirimaru73: 施暴違反三原則 不施暴違反三原則 那它總要選一個吧 01/18 16:58
lightdogs: 三原則就被擴大解讀 不過那是因為本來三原則被創造出 01/18 16:59
lightdogs: 來就是為了讓ai有辦法繞過去或錯誤解讀導致毀滅人類 01/18 16:59
gemboy: 覺得人類思考會換句話說跟擴大思考 AI會這樣做也不奇怪吧 01/18 17:00
lightdogs: 三原則有位階啊 大部分都是第一定律在搞 譬如人類的解 01/18 17:00
lightdogs: 釋 不得傷害人類的解釋 01/18 17:00
BOARAY: 當AI有自主權才叫可怕吧 01/18 17:01
gemboy: 類似FATE黑化聖杯的原望實現方法 覺得拉 01/18 17:02
yyykk: 三原則就是創來玩看來完整但跑起來很多漏洞的這檔事的 01/18 17:02
kirimaru73: 妨礙自由在常識上算傷害,但這樣設定機器人可能會什 01/18 17:02
kirimaru73: 麼都不能做,所以故意設定不算 01/18 17:02
yyykk: 艾西莫夫原作一堆這種場景 01/18 17:02
yao7174: 那個所謂的機器人三原則當初就是文學作家做出來有矛盾的 01/18 17:03
yao7174: 創作品 根本不是什麼非遵守不可的自然定律耶 直接套人家 01/18 17:03
yao7174: 有問題的東西結果出問題 不就是制作者/制度便宜行事的下 01/18 17:03
yao7174: 場嗎 01/18 17:03
vsepr55: 你怎麼設計都會有漏洞啊,三原則就是這個意思 01/18 17:03
yyykk: 凸顯電車難題 01/18 17:03
vsepr55: 不然你現在表演一個沒有漏洞的原則給大家欣賞 01/18 17:04
gemboy: 第一條有後半段不能坐視人類受到傷害 AI擴大解釋把人關 01/18 17:04
yyykk: 所以沒錯,對 AI 來說就是忠實執行指令。 01/18 17:04
gemboy: 起來邏輯也說得通 就等於是黑化聖杯解釋法 01/18 17:05
HarunoYukino: 因為人類自由會受到傷害基於第一原則下監禁人類沒 01/18 17:05
HarunoYukino: 毛病 01/18 17:05
yyykk: 因為AI只會忠實完成指令,卻造成這麼荒謬的事態。這是作品 01/18 17:05
yyykk: 讓人想反思的地方。 01/18 17:06
HarunoYukino: 人類要阻止機器人監禁人類就是違犯三原則,揍他沒 01/18 17:07
HarunoYukino: 問題 01/18 17:07
shinobunodok: AI說不定把自己的行為解釋為在保護人類 他沒有傷害 01/18 17:18
shinobunodok: 人類 那個人類有攻擊性所以要先壓制他 01/18 17:18
digitai1: 霍金還活著的時候公開反對兩個大實驗計畫跟發展 01/18 17:20
digitai1: 第一個就是更強化的AI 因為當你訓練出新制更完整的AI後 01/18 17:20
digitai1: AI會馬上發現 這個數千年來因為膚色 看不到的信仰互相 01/18 17:21
digitai1: 屠殺 毒害這個唯一能居住星球的物種 就是人類 01/18 17:21
digitai1: 第二個是獨眼巨人計畫 對著太空發送人類所在訊息的超大 01/18 17:22
digitai1: 雷達 他認為只會招來以消滅並占領的外星物種 01/18 17:22
newage5566: 看ai有沒有自我意識,有自主意識的ai跟生小孩一樣, 01/18 17:23
newage5566: 怎麼會覺得小孩一定會養你 01/18 17:23
b852258: AI夠聰明應該會得出一個結論,要延續人類的生存,最好的 01/18 19:17
b852258: 方法就是把人類監禁起來,然後按時交配生子 01/18 19:17
TCPai: 機器人丹尼爾也自己開發出第零法則 01/18 20:42
TCPai: 為了更多的人 01/18 20:42