看板 W-Philosophy 關於我們 聯絡資訊
※ 引述《realove (realove)》之銘言: : ※ 引述《reader (讀者)》之銘言: : : 而多數經科學訓練的人都不相信心物二元論,是一個不需要討論的信念問題, : : 我們可以試著去接受調和式的觀點,但對於基於心物二元論的論述,就是直接 : : 鄙視的意識形態偏見立場。 : : 我覺得中文房間論證正是隱含心物二元論的立場,來攻擊心物一元論的觀點, : : 但是一般的理解,卻是中文房間論證指出了人工智慧研究的國王新衣,甚至是 : : 電腦永遠也不能建立生命系統及其之上的複雜度,這樣更是不能被接受的理解 : : 方式。 : 中文房間的目的似乎不是要說 電腦不可能比人腦更複雜 而是要說 不管電腦再怎麼 : 複雜都不可能產生意義 因此再怎麼複雜 也不可能就此說它具有心靈 而如果有任何 : 人(不管是電腦工程師 或是哲學家)認為心靈可以用複雜系統去解釋 那就大錯特錯了 : 電腦之所以可以對英文input做出適當的中文output : 不是因為它懂得英文與中文 那些符號對被關在中文房間的searle來講 可以完全 : 是無意義的物理性質, 電腦只是針對輸入的那些表達英文語句的物理資訊做出處理 : 找出與之相對應的中文語句的物理資訊輸出 : 相對而言 一個人(如從事同步口譯的人) : 要對英文input做出適當的中文output 他必須要懂英文語句的意義 : 和中文語句的意義 這跟電腦所做的事是很不一樣的; 要"懂得"語言的意義 就必須要有 : 心靈存在才行 : 簡而言之 如果中文方間論證成立的話 可以有下列的結論 : : "心靈現象不能化約至像電腦一樣的複雜系統去解釋" : 雖然這麼說 但這結論並未排除 心靈現象的存在必定是存在於複雜系統 : 換句話 一個人可以主張複雜系統是心靈現象的必要條件 而非充份條件 : 而這個主張應該還不算太離譜..畢竟 你大概不會說 細菌也有思考 情緒等心靈現象.. : 另外 從你之前的文章看來 你似乎是同意 電腦不可能像人腦一樣產生心靈現象 : 就這點而言你跟許多哲學家的看法是一致的 你所質疑的是: 許多哲學家據此就否定了 : 人工智慧的可能性 而就你看來 這非常的離譜 : 但我認為 這要看你說的"人工智慧"指的到底是什麼. 如果人工智慧指的是電腦根據 : 資訊的輸入 可以做出恰當的輸出 那哲學家不會否定人工智慧的可能性 電腦工程師 : 當然有辦法讓一個機器人每當聽見"我愛你"時 也做出適當的回應說"我也愛你" 或甚至 : 可以視不同的情境 做不同的適當回應 (例如 電腦工程師可以讓機器人根據說話者的 : 聲波分析 去做不同的回應) : 但如果你說的人工智慧指的是一種心靈現象的話 那這就是中文房間論證所要反對的了 : 因為 你不能僅僅從電腦的適當輸出回應 去推論出電腦具有心靈..就像你不能僅僅因 : 為房間裡的searle做出恰當的中文翻譯輸出 就去推論說searle懂中文; 如果哲學家 : 反對有此意義下的人工智慧 我想還不至於太離譜 (除非你能夠提出反駁的理由) : anyway,看完a板友與r板友的討論串 後的一點淺見... Searle, John. R. (1980) Minds, brains, and programs: ... Because the formal symbol manipulations by themselves don't have any intentionality; they are quite meaningless; they aren't even symbol manipulations, since the symbols don't symbolize anything. In the linguistic jargon, they have only a syntax but no semantics. Such intentionality as computers appear to have is solely in the minds of those who program them and those who use them, those who send in the input and those who interpret the output. The aim of the Chinese room example was to try to show this by showing that as soon as we put something into the system that really does have intentionality (a man), and we program him with the formal program, you can see that the formal program carries no additional intentionality. It adds nothing, for example, to a man's ability to understand Chinese. ... 由原文可知,Searle1沒有說「不管電腦再怎麼複雜都不可能產生意義」 而是說,如果電腦只是按照中文輸入以及操縱這些沒有意義的符號的文法規則 給出相對應的輸出,則不能說電腦懂得中文。 更進一步,因為語言是智能的必要條件,而電腦不懂語言, 所以電腦沒有智能。這裡只反駁了Strong AI的立場,卻沒有反駁Weak AI 所以,沒有說「不管電腦再怎麼複雜都不可能產生意義」。 的確,輸入任何一個符號給目前市面上買的到的電腦, 都會被編碼成相對應的二進制的表示法,存在電腦裡, 但是這個符號卻沒有任何指涉或跟其他符號的關連性。 絕大多數的正常人,理解到這點,恐怕都不會認為電腦懂得語言。 但是,如果電腦的記憶體中,儲存了數不清的來自感應器的訊號, 包含圖片、聲音、壓力、遠近、溫度、聲納、…… 而且是以一種非常精妙,無論是否近似於人的資料結構儲存著。 而電腦能夠利用學習程式,形成有所指涉的單字, 單詞之間還會有脈絡上的關連性,例如某幾個單字的指涉常常出現在同一張圖片 ,或者同一個資料結構的片段中。 另外,目前已經有人在作自然語言的文法的學習程式, 如果再搭配上巧妙的語意模型,可以讓電腦從有指涉的單字進一步學習 比較抽象的詞。 另外,再加上兼具語意與語法兩個層次的推論系統,例如模態的、歸納的、 幾何的、…… 到時候不是沒有可能做出一台電腦,具有非常理性的、但是跟人比較起來 還是相當殘缺的智能。這種電腦沒有情緒,不會哭、不會笑。 至於擁有這種智能,算不算擁有「人類的」心靈現象,則又是另外一回事。 可是我認為,如果一定要跟上人的程度,或表現方向,才能叫做擁有智能, 借用洪裕宏教授的話,這叫做認知科學上的人類「沙文主義」。 (http://mli.ym.edu.tw/houng/ch/list04_science_199108.htm) 或許洪裕宏教授太過樂觀,例如櫻井正二郎有批評到, 他認為,「現在的人工智慧,老實不客氣一句話,唬人的部分多於實在的部分 。……就如同明斯基(Marvin Minsky )在台演講時所說一般, 對人愈容易的事,對機器愈難。……現在的人工智慧或機器人, 可以模擬一周歲小孩的認知能力及動作達百分之幾?…… 其實對人工智慧及機器人更困難的問題是,如何整合各種不同的認知功能,…… 如果單純將各功能累加,沒多久就到達物理極限,但在人類會的功能愈多表現愈好,顯然 不是單純累加。…… 最後提到「智慧」或「認知系統」的定義問題。…… 至於蜜蜂,也有學者認為具有智慧,但也有學者不認為,因為蜜蜂的輸入與輸出間的距離 雖不為零,但對環境而言,牠的反應是唯一的,行為科學家只要適當控制環境,即可非常 正確地預測其行為。又如人類的反射行為,其輸出入間距亦不為零,但對環境而言大部分 亦有固定的反應,所以一般也不認為具有智慧。 …… 」 但是,這篇批評的文章年代久遠,是92年的,現在06年所呈現出來的 認知科學的研究結果,卻遠比當時進步, 也有越來越多電腦科學家在結構上向神經科學取經, 例如the BabyBot project:http://www.liralab.it/babybot/robot.htm Jeff Hawkins的 Hierarchical Temporal Memory, http://yukuan.blogspot.com/2006/06/on-intelligence.html 所以,未來電腦的認知功能能趕上人腦多少,還是個未知數。 我認為任何人都不應該輕易地說未來的前景很樂觀或者悲觀。 另外,reader兄可能不甚了解機器人學的進展,所以不認為那是電腦科學家的重要任務 ,但是,越來越多電腦科學家投入這個領域,試圖要用機器人取代勞工或救災人員, 並且某種程度上輔助其他需要更高理解能力的職業。 這些是為了讓人不用再做太多危險,或不花腦力的事。 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 140.112.5.64 ※ 編輯: popandy 來自: 140.112.5.64 (06/30 01:06) ※ 編輯: popandy 來自: 140.112.5.64 (06/30 01:13) ※ 編輯: popandy 來自: 140.112.5.64 (06/30 01:21)