推 greensummera:心碎的研究員想要製造出死掉的妻子? 01/21 20:26
否
→ greensummera:戰爭是指國與國之間的戰爭? 01/21 20:27
否
→ greensummera:戰爭方式與人工智慧有關? 01/21 20:27
是
→ greensummera:想要製造出無數的士兵就可以不用犧牲孩子? 01/21 20:28
否
推 greensummera:連猜連錯阿我還是從基本的問起好了:p 01/21 20:33
抱歉剛剛倒垃圾回來
→ greensummera:沒關係我也剛猜完嗨好久不見長鷹 01/21 20:34
嗨 新年快樂
→ greensummera:所以現在是有機器人的時代? 01/21 20:36
是
→ greensummera:可是機器人沒有人工智慧? 01/21 20:36
什麼時間點?
→ greensummera:戰爭是指科技戰爭?還是真實的武力戰爭 01/21 20:36
否 是
→ greensummera:發明人工智慧是想要讓機器人用情感去判斷? 01/21 20:37
不重要
→ greensummera:現在的機器人沒有人工智慧? 01/21 20:38
現在是什麼時間?
→ greensummera:戰爭是想要爭取機器人有人工智慧的權利? 01/21 20:39
否
→ greensummera:現在是指戰爭前 01/21 20:40
戰爭前的什麼時候?
→ greensummera:戰爭前還有分時候噢時間點的切割真難QQ 01/21 20:41
→ greensummera:戰爭之後有人工智慧了嗎 01/21 20:42
是
→ greensummera:奇怪這不是聖誕湯嗎為什麼沒有聖誕味阿哈哈 01/21 20:43
因為聖誕節過了
→ greensummera:戰爭的時候有人工智慧嗎 01/21 20:43
是
→ greensummera:是因為有人工智慧所以勝利了嗎 01/21 20:44
否
→ greensummera:研究員變成聖誕老公工了嗎 01/21 20:44
也不能說錯
→ greensummera:人工智慧分很多種? 01/21 20:45
沒有很多種
→ greensummera:擁有人工智慧的是一個個體還是很多個個體 01/21 20:45
否 否
→ greensummera:人工智慧有2/3/4種? 01/21 20:46
2
→ greensummera:研究員有人工智慧?他不是人嗎? 01/21 20:47
否 否
→ greensummera:戰爭是兩個機器人對打? 01/21 20:47
否
→ greensummera:機器人跟人對打? 01/21 20:48
是 (主要是
→ greensummera:我方向猜錯了嗎? 01/21 20:48
否
推 greensummera:所以是機器人加聖誕老人跟人對打然後勝利? 01/21 20:51
否
→ greensummera:毀滅的一切跟聖誕節/人工智慧有關? 01/21 20:52
否 是
→ greensummera:還是毀滅掉禮物了 01/21 20:52
否
→ greensummera:機器人跟聖誕老人對打?! 01/21 20:53
否
→ greensummera:聖誕老人想要毀掉機器人? 01/21 20:54
否
→ greensummera:機器人是麋鹿嗎? 01/21 20:54
否
→ greensummera:我開始覺得我方向錯誤了哈哈請指示 01/21 20:55
機器人 VS 機器人+人類
→ greensummera:在戰爭過程中毀掉的人工智慧戰爭後又回來了? 01/21 20:56
否
→ greensummera:所以有一個機器人毀了? 01/21 20:56
否 (不能說全措
→ greensummera:兩個機器人的人工智慧差別重要嗎? 01/21 20:56
是
→ greensummera:一個人工智慧是理性一個是感性? 01/21 20:58
否
推 greensummera:兩個人工智慧的思考方向不同? 01/21 21:00
是
→ greensummera:上面那一大段我需要理解很久的東西重要嗎?:p 01/21 21:01
恩... 其實還好 那些大多是設定
→ greensummera:經過理解整合分析得到答案後因為有情感的不同做出不 01/21 21:02
→ greensummera:同的結果? 01/21 21:02
兩個人工智慧都有情感
應該說是對於某件事認知的不同而最後分析整合得到不同的結果
→ greensummera:人性在這裡面佔了關鍵? 01/21 21:02
有點
推 greensummera:我要猜出某件事嗎? 01/21 21:05
猜出來比較好接著猜 不猜也沒差
→ greensummera:為什麼認知不同重要嗎? 01/21 21:05
還好 也就是猜出來比較好接著猜的那件事
→ greensummera:某件事跟研究員有關? 01/21 21:06
否
→ greensummera:兩個人工智慧都是研究員製造的吧? 01/21 21:07
可以這麼說
→ greensummera:認知不同是因為人性? 01/21 21:13
不算是
→ greensummera:還是有既定原因譬如設定之類的? 01/21 21:13
不是因為被設定要有差距而有差距
→ greensummera:所以是人工智慧自行發展而產生的結果? 01/21 21:16
是
推 greensummera:所以我猜完認知了?! 01/21 21:18
你還沒猜到底認知差異是差異在哪裡啊
→ greensummera:某件事跟人工智慧有關? 01/21 21:19
是
→ greensummera:QQ我猜完一半了嗎 01/21 21:20
恐怕不
推 greensummera:要猜出認知的差異不用先猜出事件嗎? 01/21 21:22
都可以
→ greensummera:是想要做出第三個人工智慧? 01/21 21:24
否
→ greensummera:跟人工智慧的存在有關?想要毀掉人工智慧? 01/21 21:25
否 否
推 greensummera:想要毀掉聖誕老公公?毀掉聖誕節? 01/21 21:28
否 否
推 greensummera:我的腦細胞死光了(倒 01/21 21:30
推 greensummera:認知跟情緒有關嗎? 01/21 21:34
否
推 greensummera:好了祝長鷹今天可以結束此湯我要去洗澡睡覺:p 01/21 21:38
恩 掰
推 gaexpa066454:看到文章那嚜長我就快放棄了orz 01/21 22:07
加油
推 gaexpa066454:兩種機器人對於同一事物的反應會不一樣嗎 01/21 22:50
有可能
→ gaexpa066454:機器人有分功能? 01/21 22:50
是 不重要
推 gaexpa066454:機器人有學習能力? 01/21 22:53
是
→ gaexpa066454:機器人所處環境不同?造的時間不一樣? 01/21 22:54
是 否
推 gaexpa066454:機器人有情感嗎? 01/21 23:01
是
推 qwertyset:兩個機器人被做出來的目的不同而造成他們的差異? 01/21 23:03
否
推 qwertyset:他們是被人類擁有嗎?是誰重要嗎? 01/21 23:06
否 是
推 qwertyset:一隻被人擁有一隻被野放?XD 01/21 23:09
否
推 gaexpa066454:他們被機器人擁有 01/21 23:09
否
推 cnoscnos:其中一個人工智慧是要毀滅人類建立只有機器人的世界? 01/21 23:09
是
推 qwertyset:一個是覺得人類是友好的生物一個覺得不是嗎? 01/21 23:12
有點錯
推 gaexpa066454:有機器人覺得人類應該保留嗎? 01/21 23:17
是
推 qwertyset:其中一個被人類惹生氣了? 01/21 23:17
否
推 gaexpa066454:因為想毀滅人類 所以才造成戰爭? 01/21 23:21
否
→ wxtab019:和機器人的三定律(法則)有關嗎0.0 01/21 23:22
否
推 qwertyset:毀滅一切的戰爭跟勝利的戰爭是同一次? 01/21 23:23
是
推 qwertyset:研究員有重要的戲分嗎? 01/21 23:31
沒有 他就是個龍套
推 cnoscnos:勝利是指人類勝利?勝利是指人類滅亡了? 01/21 23:31
是 否
→ qwertyset:人工智慧被製造出來的目的重要嗎? 01/21 23:32
否 就是實驗
推 qwertyset:人工智慧被製造出來後 他們的智力超過人類 而覺得人類 01/21 23:35
→ qwertyset:不需要存在? 01/21 23:35
否
推 cnoscnos:人類勝利也滅亡了???所以人工智慧也毀滅了? 01/21 23:38
人類勝利了 沒有滅亡 人工智慧也沒有滅亡 (上方錯誤已改
推 qwertyset:毀滅一切是指人類不再給人工智慧感情? 01/21 23:42
否
推 cnoscnos:戰爭後的人工智慧只能聽從人類指令? 01/21 23:43
否
推 cnoscnos:想消滅人類的人工智慧在戰爭後依然存在?或被人類消滅了? 01/21 23:52
否 是
大家早點睡吧 時候不早了 明天再戰吧 deadline什麼的別理他了
推 alice910153:人工智慧是特別以研究員認識的某人為版型所設計? 01/22 09:19
否
→ alice910153:研究員做這個實驗是否有其他野心? 01/22 09:20
否
→ alice910153:想要銷毀全人類的人工智慧是第一個製品? 01/22 09:20
否
推 alice910153:研究員有活到戰爭結束後? 01/22 09:22
不重要
→ alice910153:站在人類這邊的人工智慧是戰爭過程中才被製造出來的? 01/22 09:22
否
→ alice910153:人工智慧(非友善)有屬於任何機構?任何人? 01/22 09:23
否
→ alice910153:與人類友善的人工智慧有屬於任何機構? 01/22 09:23
否
→ alice910153:研究員做出人工智慧是聖誕節?想當作禮物送給某人? 01/22 09:25
否
→ alice910153:研究員讓人工智慧承擔人類的罪? 01/22 09:25
否
→ alice910153:標題中"壞掉的心"是人工智慧(非友善)的還是人工智慧( 01/22 09:26
→ alice910153:善_)的?還是全人類的?研究員的? 01/22 09:26
否 否 否 否
推 alice910153:原本兩者的設定大致相同 因為所處的環境不同造成心態 01/22 09:34
→ alice910153:上的差異? 01/22 09:34
是
→ alice910153:與人類敵對的那方是因為有些缺陷而被人類所放棄? 01/22 09:35
否
推 alice910153:好多否Q口Q 01/22 09:41
→ alice910153:與人類友善的是先被製造出來的? 01/22 09:42
否
→ alice910153:看到前輩變成人類的走狗讓後者感到北宋? 01/22 09:42
否
→ alice910153:後者的智慧有比較高? 01/22 09:43
否
推 gaexpa066454:研究員想要用機器取代人類? 01/22 10:51
否
推 xzfqck:人造人? 01/22 10:57
否
推 gaexpa066454:機器人有分保留人類根除掉人類? 01/22 11:12
可以這麼說
→ gaexpa066454:長鷹的湯太深奧 我抓不到重點 01/22 11:13
只要猜為什麼會有兩個人工智慧還有他們在什麼東西的認知上不同
導至他們最後一個打算滅亡人類 一個保護人類
→ gaexpa066454:保留人類的機器人加入人類了? 01/22 11:15
可以這麼說
→ gaexpa066454:機器人有靈魂嗎 01/22 11:17
這個問題是什麼意思? 怎麼樣算是有靈魂?
推 gaexpa066454:機器人是活的嗎...... 01/22 11:19
怎麼樣算是活著?
推 gaexpa066454:我.....很難定義..... 01/22 11:21
哲學湯嘛
→ gaexpa066454:不要叫我解答這種事啦 我年紀小... 01/22 11:24
→ gaexpa066454:不 01/22 11:24
總是要想的
推 gaexpa066454:= = 01/22 11:26
推 alice910153:兩個是同期製造出來的? 01/22 11:28
是
→ alice910153:放到不同地方來成長是操作變因? 01/22 11:29
算是
推 gaexpa066454:實驗.... 01/22 11:30
是
推 alice910153:所以為什麼會製造兩個人工智慧是研究員想更理解人類的 01/22 11:33
→ alice910153:手段? 01/22 11:33
否
推 gaexpa066454:他的實驗是想得知啥而去做? 01/22 11:33
不重要 是為了實現人工智慧而做
推 alice910153:這兩個人工智慧是最早被製造出來的嗎? 01/22 11:40
是
→ alice910153:想毀滅人類的機器人看到了地獄?遭遇了地獄? 01/22 11:40
否
推 alice910153:他們遭遇的最大差異在於與人類的互動? 01/22 11:42
是
→ alice910153:看到人類與大自然的互動? 還是人類對他們的態度? 01/22 11:43
否 是
推 alice910153:與人類的互動的差異是:人類對他們做了什麼事? 01/22 11:47
算是
→ alice910153:人類要他們做什麼事? 01/22 11:47
算是
先吃個飯
→ alice910153:兩個都有?比較接近哪個? 01/22 11:48
都有
→ alice910153:對人類懷有敵意的人工智慧是因覺得人類利用他們? 01/22 11:48
否
→ alice910153:遭受到敵意.漠不關心.不當作人的對待? 01/22 11:49
否 是 是
→ alice910153:(好) 01/22 11:49
推 alice910153:造成人性的產生是因為情感的交流? 01/22 13:17
是
推 alice910153:所以造成認知不同的原因猜出來 現在要猜是造成怎樣的 01/22 16:24
→ alice910153:不同? 01/22 16:24
造成怎樣麼不同
推 alice910153:這兩個人工智慧有行動能力? 01/22 16:26
可以說有
→ alice910153:憤怒的人工智慧覺得人類無情 比自己還不如? 01/22 16:28
否
推 greensummera:因為不被當作人對待所以想要創造只有機器人的世界? 01/22 18:36
因為不被當作人對待 是 後面錯
→ greensummera:於是發動戰爭 而另一個機器人站在人類方 昨天的進度? 01/22 18:37
是 "為什麼站在人類方?"重要
→ greensummera:所謂壞掉的心重要嗎?是指機器人的情感? 01/22 18:38
不重要 這個看解答就好
→ greensummera:我上面說的機器人是毀滅人類方的機器人) 01/22 18:38
否
推 greensummera:因為被當成親人所以站在人類方? 01/22 18:50
→ greensummera:或是朋友? 01/22 18:50
因為被當成__所以 他認為__ 因此他幫人類方
→ greensummera:不被當成人對待所以想要毀滅人類? 01/22 18:50
否
推 greensummera:被當成寵物/同事/夥伴/皆非? 01/22 19:00
否 否 是? 是
→ alice910153:被當成什麼有在五倫之內?情人? 01/23 20:23
站在人類方的被當成情人 另一個被當成____? (不在五倫之內)
推 alice910153:敵人?工具? 01/23 20:44
否 是
所以兩個人工智慧在思想上的差異是什麼?
推 alice910153:長鷹要很細榷的還是很籠統的? 01/24 07:40
明確的
推 alice910153:愛憎的情感?報復性思想? 01/24 13:06
否 否
推 alice910153:IQ?EQ? 01/24 13:15
否 否
推 hinmay:老實說,我看到前言就放棄喝這碗湯了TAT 01/25 02:02
XDDD 這樣阿 瞭解了 其實可以試試 因為快要完結了
推 alice910153:有提示嗎?QAQ 01/25 20:20
這是個哲學基本問題
推 gaexpa066454:自己用途上的差異? 01/25 21:16
否
推 gaexpa066454:情感上的差異? 01/25 21:25
否
→ shinjangli:自己是人跟自己不是人? 01/26 21:14
是 是
整理一下吧
推 alice910153:一個覺得人類是異己所以想剷除? 01/27 18:59
否 (什麼是異己?
→ alice910153:差別是"人性"? 01/27 19:00
否
推 alice910153:異己就是不認為自己是同類或自己不認為是同類的傢伙 01/27 19:24
人類是異己 可是不是他剷除人類的原因
推 alice910153:一方是因為想要保護愛人 另一方卻是恨所有人 01/27 19:32
否 是
推 gaexpa066454:一方式想保護自己認為的同類? 01/27 20:31
是 整理一下吧
推 alice910153:兩個原始設定值相同的人工智慧 被放到不同的環境 01/27 20:59
→ alice910153:得到相異的對待。其中一個 受到人類接納 甚至墜入愛河 01/27 21:00
→ alice910153:另一個卻被人類是為不具情感的工具 因此他對人類並不 01/27 21:01
→ alice910153:信任 也不喜歡 於是他挑起戰爭 想讓所有人類消失 01/27 21:01
→ alice910153:只剩下能真心對待自己的人工智慧? 01/27 21:02
→ alice910153:喔喔喔 被視為工具的人工智慧要爭取"人權" 保護同類? 01/27 21:04
湯底
※ 編輯: longlyeagle 來自: 59.115.52.160 (01/27 21:20)