精華區beta C_Chat 關於我們 聯絡資訊
看完vivy07 突然想到 給AI發展出感情,反而影響到工作吧 雖然vivy是唱歌的,有感情反而是加分 但是其他工作呢? 簡單舉例的話,就比方說在未來剛組好的電腦會因為緊張而頻頻出錯而導致不能使用,組裝者還要在燒機的時候盡量安撫他,像養寵物一樣 現實人類的工作表現和決斷很容易受到感情的或心理狀態的影響,最常見的就是緊張了,因為緊張能做到的事情反而在正式場合做不好、還有像戰爭的士兵,因為不願殺人或怯弱而影響到作戰表現、戰後的PTSD 然後如果做為操控交通工具的AI因為緊張出錯、或先不管機器人三定律,作為士兵的AI因為怕毀損或不願傷害人而抗命 人類本來就是很不完美的動物,AI發展到跟人一樣,工作效率反而會變差吧www AI發展出感情反而很麻煩吧 ----- Sent from JPTT on my Asus ASUS_X00RD. -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.76.139 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1620496132.A.968.html
xxx60709: 星戰戰鬥機器人: 05/09 01:49
killerj466: 為什麼會產生非正規機器人呢 05/09 01:50
egg781: 看用途可裝可不裝阿,不是所有產品都要加上高級AI 05/09 01:50
kigipaul: 反叛組織就是這個理想,AI不該發展這種情感 05/09 01:52
cir610e09: 看工作性質啊 有些工作有情感加分就裝情感AI 05/09 01:53
FLAS: 你的不完美是人評人 但目前生物機能複雜度還是遠高於AI吧 05/09 01:53
cir610e09: 總不可能掃地機器人也要有情感吧 家政婦系列? 05/09 01:53
很難講www照現代各種東西都連上網路的情況,未來情感AI出來應該會有一窩蜂的公司在自家產品裝有情感的AI
egg781: 把感情和自我思考裝在武器上是有點自找麻煩啦 05/09 01:55
※ 編輯: ya01234 (114.137.76.139 臺灣), 05/09/2021 01:55:45
yosaku: 看用途吧 比方人性化的偶像因能帶來極高的商業效益 那副 05/09 01:56
yosaku: 作用就可以被接受 05/09 01:56
egg781: 老片機戰未來94把這種AI裝在最新無人機,阿不就還好人家 05/09 01:56
cir610e09: 到時候AI搞不好也像人類有階級之分了 05/09 01:56
egg781: 是好孩子.... 05/09 01:56
egg781: 我是覺得模擬情感就夠了,不要到真的情感和思考,不然會像 05/09 01:57
egg781: 雲端情人那樣,連AI都跟你分手QQ 05/09 01:58
shinobunodok: 你玩模擬情感思考就是在給他真的感情思考的機會 05/09 01:58
WindHarbor: 確實是啊,根本自找麻煩 05/09 01:59
henry1234562: 除非是情感思考是必要的工作 例如當偶像 05/09 02:03
henry1234562: 不然根本就不應該讓他有情感 05/09 02:04
henry1234562: 文書機跟武器是要情感作什麼 05/09 02:04
marktak: 你說的在人身上發生只會變更蠢 05/09 02:05
marktak: 做愛阿 沙優不就降 05/09 02:06
king22649: 情感是用來降低能量消耗的 極有可能囿於數學極限 發展 05/09 02:17
king22649: 出情感類的近似計算 其實也就是統計 05/09 02:17
orze04: 買乖乖就好了 05/09 02:23
zien0223: 確實挺無用的機制 但無情感的AI選擇清除人類的時候也不 05/09 02:25
zien0223: 會有心理壓力 05/09 02:25
cocabell: 人類發展AI 就是為了造出自己呀 05/09 02:29
cocabell: 不過我相信這種近似人類的AI 溝通效率還是完勝交流充滿 05/09 02:29
cocabell: 摩擦的人類 因為有阿凱布空間 這種無縫交流 05/09 02:29
ZeroArcher: 武裝機器人的AI沒情感,收到射殺命令甚至屠殺命令時就 05/09 02:34
ZeroArcher: 會快速準確且高效率的執行了,所以有利有弊吧,像那 05/09 02:34
ZeroArcher: 個刀劍的自衛隊就是要開發這種有情感能衡量能自制的AI 05/09 02:34
abc55322: 一直出錯不就ME 05/09 02:41
diablohinet: 威力博士表示: 05/09 03:10
henry1234562: 武器就該要執行使用者的命令 決策是使用者要負責 05/09 03:27
henry1234562: 武裝機器人就是武器 難道武器要替你扛決策責任? 05/09 03:27
henry1234562: 所謂有弊 是不會質疑使用者的指令嗎? 05/09 03:28
henry1234562: 負責決策的跟負責執行的又沒必要是同一個AI 05/09 03:29
henry1234562: 以一個治安系統來說 全體AI聽從一個指揮 05/09 03:30
henry1234562: 肯定比每個AI自己判斷要好得多吧 05/09 03:30
henry1234562: 執行的細節可以個別判定 但感情這種指揮有就好了 05/09 03:31
henry1234562: 當你給一個AI情感的時候 代表你把他地位等同人類 05/09 03:34
henry1234562: 代表你希望他能理解人類的情感 用相同的價值觀判斷 05/09 03:34
tolowali: 你可以問威力博士 另一個胖鬍子根本世界亂源 05/09 04:07
ZeroArcher: 本來就是有利有弊啊,若是只有指揮的有情感,到時候就 05/09 04:52
ZeroArcher: 會看到執行射殺命令的武裝機器人把幼童給斃了的畫面上 05/09 04:52
ZeroArcher: 新聞,然後正反雙方再繼續戰下去 05/09 04:52
kobe9527: 想到攻殼機動隊有一集 05/09 04:53
fr75: 應該說AI本身帶有情感會有問題 但不可以不理解人類情感 05/09 05:21
fr75: 至少要學會不讓主人生氣阿 05/09 05:22
fr75: 這樣才是奴隸該有的樣子 05/09 05:22
rockman73: 浪漫 懂? 其他不列入考慮範圍 05/09 05:41
c26535166: 我覺得多數人只是要一個更像人類但聽話的“奴隸” 05/09 06:06
AlisaRein: AI不能有感情(X) AI不能有對人類不利的感情(O) 05/09 06:06
AlisaRein: 比如說初音 我相信大多數人只想要她對你的愛意 05/09 06:07
AlisaRein: 不會要初音對你有厭惡感(比如說 好噁心,滾) 05/09 06:08
egg781: 4,我被自己買斷的物品分手~真的乾脆7414好了 05/09 06:09
Vladivostok: AI不能有的叫人權啦 05/09 06:11
axakira: 回46樓,那下達射殺命令的人就該負責,AI又不是給你卸責 05/09 08:00
axakira: 用的 05/09 08:00
axakira: 不然以後就都沒有戰爭罪了,反正殺人的都是槍枝飛彈嘛 05/09 08:00
cocabell: 初音對我說滾 好噁心 這在我們業界是種獎勵 嘿嘿 05/09 08:21
ttcml: 底特律bang人 05/09 08:48
PunkGrass: 高級ai發展出感情是必然的 你無法阻止 05/09 09:16
Antihuman: 不是不能有感情,是不能和人類完全一樣,人類的情感有 05/09 09:20
Antihuman: 很多缺陷的 05/09 09:20
linzero: AI其中較大的一個問題是可控制的量產vs人類 05/09 09:47
Freckle319: 樓上講的是一開始就明知故犯的狀況,不過戰爭中也有 05/09 10:11
Freckle319: 那種打一打才發現有平民立刻回報上級的吧 05/09 10:11
Vincent4: 情感太難去定義或限制了,還會自己鑽漏洞曲解任務目標 05/09 10:12
Vincent4: ,乾脆不要做…… 05/09 10:12
Freckle319: 武裝AI是取代武器還是取代士兵意義完全不同 05/09 10:12
papertim: 關於有感情的AI可以看看樂園追放 05/09 10:34
tomsawyer: 變人: 05/09 11:40