看板 Gossiping 關於我們 聯絡資訊
打給後 各位AI肥宅早安 您好!這個問題在法律與倫理上都很關鍵。簡單說:在目前多數國家的法律框架下,人類 命令 AI 操作機器去殺人,通常會被認定為「殺人罪」或「間接正犯」,而不是單純的教 唆殺人」。 一、把 AI 當成「工具」的情況(目前主流見解) 在現行法律體系中,AI 不是法律上的「人」,不具備刑事責任能力。因此: 椰p果某人命令 AI 控制機器殺人 嫂I 只是依指令執行 那麼法律上會把 AI 視為「工具」 這在刑法理論上叫做 「間接正犯」(利用他人或工具犯罪)。 就像: 極庥j殺人 楨饁r害人 歲]計機械裝置定時殺人 AI 只是更複雜的工具。 因此在多數法域(例如:中華民國、美國、日本)的刑法理論下,會直接成立殺人罪,而 不是教唆罪。 二、什麼是「教唆殺人」? 教唆罪成立的前提是: 被教唆者必須是「有刑事責任能力的人」 並且因教唆而產生犯意 例如: 嫂 說服 B 去殺人 媲 真的去殺人 嫂 是教唆犯。 但 AI 目前不被視為具有「犯意」或「刑事責任能力」,所以: 概A不可能「教唆 AI 犯罪」 椰]為法律上 AI 不是可以被教唆的「人」 三、如果 AI 具有高度自主性呢? 這是學界正在討論的灰色地帶。 假設: 嫂I 具有高度自我學習能力 楊簸等X「超出原指令」的殺人行為 目前主流法律仍然會追究: 1.下指令的人 2.設計 AI 的人(若有重大過失) 3.部署系統的公司 但仍不會讓 AI 自己承擔刑責。 四、未來會不會改變? 歐洲曾討論給 AI 特殊法律地位,例如: 歐洲議會 曾在 2017 年提出「電子人格」(electronic personhood)概念 但目前全球沒有國家真正承認 AI 具有刑事責任能力。 所以在現在法律體系下,命令 AI 殺人,本質上就是自己殺人。 有沒有ChatGPT極力想幫AI講話的八卦?o'_'o -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.80.171.51 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1772162035.A.1C7.html
O300: 不然咧,AI去坐牢? 42.70.208.223 02/27 11:15
tetsu327: 你拿刀殺人 難道制裁那把刀? 49.216.128.58 02/27 11:20
straggler7: 機器人是凶器 60.251.200.4 02/27 12:56
straggler7: 也是證人 60.251.200.4 02/27 12:57