推 windycat:重點是傷害的定義 05/17 09:11
小說自己看吧。小說第五章-騙子就是在講傷害人的自尊算不算傷害。
裡面有一個懂得讀空氣的實驗機器人為了不傷害人類的自尊
結果最後還是被抓包,然後憤怒的被害者用邏輯悖論讓這傢伙自滅。
推 xxx60709:第1點的範圍管轄也是問題 05/17 09:22
推 windycat:被掌握政經大權傷害到人類的自尊(? 05/17 09:44
其實I,Robot的主軸就是艾西莫夫先寫出一個邏輯上看起來沒破綻的三原則
可是整本小說卻是三原則的Debug史。
沒看過整本的只看過三原則的第一個問題就是第一原則裡傷害的定義,
再來就是管轄範圍,其實表三原則表最大的就是寫出三原則的作者。
最後一章可避免的衝突有講到機器人們如何掌握地球的政經大權。
※ 編輯: yusaku (111.242.175.96), 05/17/2014 10:15:36
推 windycat:但是好像還蠻多作品很推崇這三原則0..0 05/17 10:22
因為艾西莫夫寫出三原則出現以前的機器人科幻作品
不是機器人有智慧後開始反抗人類亂殺人,
就是機器人只能服從人類被人類奴役。
可是把機器人視為是靠著複雜的人工智慧程式
驅動以便執行人類交辦的任務的工業產品從這裡開始。
第一章機器保母羅比在1940年發表,後來手塚治蟲也把
這篇漫畫化。後來規範阿豆母的核心程式也是三原則。
※ 編輯: yusaku (111.242.175.96), 05/17/2014 10:35:18
→ windycat:另外我認為人類不太可能設計/製造出這種會自婊的產品 05/17 10:27
→ windycat:雖然很多科幻都喜歡玩這個主題 05/17 10:27
抱歉,這種會自表的東西美軍正在研發,而且更糟糕的是沒有三原則約束這些東西。
所以我們的世界線應該是終結者的世界線而非艾西莫夫的我,機器人的世界線。
※ 編輯: yusaku (111.242.175.96), 05/17/2014 10:38:38
→ windycat:自走殺人機械應該是沒問題 05/17 10:45
→ windycat:但是覺得應該不會有可以完全掌控的AI.. 05/17 10:45
→ windycat:運算AI的難度之外 覺得人類還是習慣把權力捏在自己手上 05/17 10:46
→ HatomiyAsuka:人類自己都會毀滅自己了還輪得到機器人幫人類毀滅嗎? 05/17 11:48
推 d9660661:看看機器戰警,為了錢什麼都有可能 05/17 13:06
推 lifehunter:人類設計的自婊產品還少嗎? (看向核電廠) 05/17 13:11
推 yys310:核電廠哪裡自婊了 05/17 13:48
推 rayven:所以最後ERP會統治世界,快點去學吧(誤 05/17 20:31
→ rayven:不過現在看阿豆姆會覺得很不舒服,機器人的待遇跟黑奴沒差 05/17 20:33