作者obov (你那邊幾點)
看板CSSE
標題Re: [News] 世界著名人工智能專家在漢研制新人工腦
時間Sun Aug 20 20:09:29 2006
※ 引述《haryewkun (Har)》之銘言:
: 一句話,不可能。企業外包實際上降低了美國相當一部分人民的收入,要求他們
: 自己想辦法提升競爭力,自力更生。
: 這就是資本市場的規則,而這個規則,保護裏面最有力的人。
: 如果有一個萬能機器的出現,它從頭到尾都會根據資本市場的規則去走,並在商
: 場及股市上取得勝利。
你所謂萬能機器的出現,終究只是一個如果。
萬能機器能有多萬能?
取代目前所有人類所能從事的行為? 同時擁有高超的運算能力?
所以萬能機器N版可以自行研發萬能機器N+1版?
實際上,萬能機器的出現演進與世界的互動必須合理解釋。
畢竟萬能機器突然出現在現代社會是不可能的。
或者,你只是在講另一種小叮噹的故事?
: 所以,想一想,當我們不再需要工人來使用新的生產工具的時候,這個機制會
: 變成怎樣?
: 我前面的文章就一直在強調,不要把電腦當作是紡織機。紡織機終究需要人類
: 來操作及設計,但是電腦的發展趨勢,就是人工智慧,直到再也不需要人類的
: 操作為止。
: 從這一個點開始,電腦再也不需要人類,你的機制就會崩潰。
那,在機制崩潰之前會發生什麼事?
實際一點,當萬能機器能夠低成本地做工洗碗掃廁所,美國等各國的非法移
民與外籍勞工減少,同時也影響到本地勞工,接下來政府就會出面干預了。
這絕對會在所謂萬能機器與其擁有者足以影響政府之前發生。
那麼這機制如何崩潰?
: 另外,獨佔生產工具是托拉斯的行為,這個說法有很多問題,有待商榷。並不
: 見得擁有獨佔地位,就一定會被切割。
: 一個很簡單的比喻,美國是世界上最強大的國家,聯合國有沒有權力要求切割
: ?世界上只有幾個國家公開擁有核武,請問發展中國家,有沒有權力反對這些
: 核武國,獨佔最強大的武器?
: 反過來,這些核武國,用一切的力量,要獨佔這種力量,禁止任何其他國家嘗
: 試開發核武。
如果你想預言的是大規模的失業,貧窮,甚至是機器人對無產階級或種族或國
家的屠殺,說穿了,也就是歷史上常演的戲碼罷了。
--
有錢人跟小叮噹聯合起來虐待大雄?
也許這個劇情日本人會有興趣
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 69.231.83.190
推 Wolfram:這個討論串滿驚人的... 08/20 23:57
推 cplusplus:"萬能"機器,有趣的邏輯茅盾,萬能機器可不可以找一件 08/21 02:34
→ cplusplus:它自己做不到的事情?? 矛盾~ 08/21 02:34
→ cplusplus:若找不到=>非萬能,又若找到=> 有其他做不到的,非萬能 08/21 02:35
推 Wolfram:也滿沒意義的,畢竟都是在討論還未真正發生的事 08/21 10:43
推 seagal:應該開個幻想版 或是小說版 在這邊討論有點離題 08/21 10:54
推 I0O1:這討論串reader提出的萬能機器,應該是一種能取代人類的新物種 08/21 11:58
→ I0O1:生物角度中,在競爭狀態下,能取代另一物種的物種只需要有更高 08/21 12:00
→ I0O1:競爭力 就足夠了 08/21 12:02
→ I0O1:另外, 非競爭因素的取代也很多樣, 包括針對人類弱點的攻擊 08/21 12:02
→ I0O1:(像是病毒 <- 不過病毒學認為,人類分布太廣,反而不容易毀滅) 08/21 12:04
→ I0O1:也因此,是否有超人工智慧,能在短時間毀滅人類呢? 08/21 12:05
→ I0O1:(基本上我也相信reader等人提出的 "漸進式進步", 在此進步模 08/21 12:06
→ I0O1:式下,人類的智慧會不斷尋求共生妥協與最大利益. 因此, 縱然有 08/21 12:07
→ I0O1:超人工智慧的誕生, 也不容易滅絕人類) 08/21 12:07
→ I0O1:回正題, 超人工智慧(SAI)我覺得是有機會在短時間內突現的 08/21 12:08
→ I0O1:至少包括有 破壞性病毒 與 磁區損毀 兩種方式, 可以改變一個 08/21 12:09
→ I0O1:正常程式的行為模式. 可以想見基因的 "突變" 08/21 12:09
→ I0O1:(我用回文好了...) 08/21 12:11