※ 引述《popandy (pop)》之銘言:
: 由原文可知,Searle1沒有說「不管電腦再怎麼複雜都不可能產生意義」
: 而是說,如果電腦只是按照中文輸入以及操縱這些沒有意義的符號的文法規則
: 給出相對應的輸出,則不能說電腦懂得中文。
我所知道的中文房間論證並不是這樣,或者說不只是這樣。這反而是最為
糟糕的理解,由於中文房間論證沒有被推翻,致使這樣的理解,變成電腦
只能操作文法規則的錯誤認識持續至今。
更何況我記得都有人拿類神經網路跟他吵了,但他還是十分堅持立場。
: 而電腦能夠利用學習程式,形成有所指涉的單字,
: 單詞之間還會有脈絡上的關連性,例如某幾個單字的指涉常常出現在同一張圖片
: ,或者同一個資料結構的片段中。
: 另外,目前已經有人在作自然語言的文法的學習程式,
: 如果再搭配上巧妙的語意模型,可以讓電腦從有指涉的單字進一步學習
: 比較抽象的詞。
: 另外,再加上兼具語意與語法兩個層次的推論系統,例如模態的、歸納的、
: 幾何的、……
: 到時候不是沒有可能做出一台電腦,具有非常理性的、但是跟人比較起來
: 還是相當殘缺的智能。這種電腦沒有情緒,不會哭、不會笑。
人工智慧的發展,大致上可略為分連結論和計算論兩派,計算論較為大眾所
熟悉,但連結論佔有電腦科學的主流地位已經超過二十年了,只是到了後期
因為人工智慧研究的污名化(和中文房間論證和日本第六代電腦計劃的失敗
有很大的關係),研究經費申請不到,多數以連結論為主的研究人員自稱是
在做機器學習而不是人工智慧。
以連結論的做法,要讓電腦有情緒表現是很容易的事情,特別是人類有喜好
情緒表現的傾向,因此沒有實際應用目標的對話程式,往往會被訓練成情緒
表現較明顯的模樣。這類型的系統,是會在互動中學習成長的,特別是現在
都會搭配大量的模式辨認 (pattern recognition) 技術,可以很快地學會
訓練者的用語和慣性對話方式。
甚至以計算論模型為基礎的自然語言,還會內建小女孩模式或是鄉民模式,
記得好幾屆圖林測試比賽冠軍程式都是鄉民程式,它會一直努力引導對話至
特定議題,然後自顧自地跟你大談特談,不讓它談還會跟你翻臉,就一整個
網路小白樣子。
當然這些都不是嚴肅的研究或應用,但顯然若哪一天會出現純粹打發無聊的
商業性自然語言對話程式,那麼有著情緒表現、不很理性的,美少女外型的
任性裝可愛還可能會臉紅說喜歡你的對話系統,大概免不了成為首選。
high tech, high touch 是除了財大氣粗的美國廠商之外,所有科技業者都
高度贊同的工業設計準則。實際上我就曾經考慮過用美少女養成形式的對話
系統,做為自己的網路系統計劃的資料輸入介面。
講哲學是一回事,但講現實的科技,成功的商業化產品必然會是經過實際的
研究測試,會讓很大比例的消費者迷戀它的,人性是很容易欺騙的。
你所講的這些東西,看起來都是早期的人工智慧研究者的想像,在十五年前
大家就已經不太這樣談了。如果是你老師教的,那沒辦法,台灣的資訊教育
就是落後這麼多年,但現在研究方向並不是這樣,即使論文依然可以找地方
發表,卻不是重點所在。
: 至於擁有這種智能,算不算擁有「人類的」心靈現象,則又是另外一回事。
: 可是我認為,如果一定要跟上人的程度,或表現方向,才能叫做擁有智能,
: 借用洪裕宏教授的話,這叫做認知科學上的人類「沙文主義」。
: (http://mli.ym.edu.tw/houng/ch/list04_science_199108.htm)
: 或許洪裕宏教授太過樂觀,例如櫻井正二郎有批評到,
: 他認為,「現在的人工智慧,老實不客氣一句話,唬人的部分多於實在的部分
: 。……就如同明斯基(Marvin Minsky )在台演講時所說一般,
: 對人愈容易的事,對機器愈難。……現在的人工智慧或機器人,
: 可以模擬一周歲小孩的認知能力及動作達百分之幾?……
明斯基是連結論者的公敵,看起來地位很高,卻早就沒人真的重視他的話。
他刻意宣揚人工智慧的前景,強力推動符號處理的計算模型,打壓連結論的
發展,讓哲學界反撲、讓日本花大錢搞第六代電腦、讓連結論的先驅羅森布
拉特自殺。他根本就是主要的罪人,然後又裝無辜地批評起人工智慧研究的
浮誇。
全世界最浮誇最愛搞媒體宣傳的就是 MIT 的那幾個實驗室。不要說哲學界,
電腦界都想開罵了,還不就是他們徒子徒孫眾多,輩份特高,沒人想做那個
掛貓鈴鐺的老鼠。
誰需要去模擬一周歲小孩的認知能力了,或者說,電腦科學真的需要在沒有
完善理論、一步步地實在發展之前就去模擬人類認知嗎? 問題是在誰身上?
: 其實對人工智慧及機器人更困難的問題是,如何整合各種不同的認知功能,……
: 如果單純將各功能累加,沒多久就到達物理極限,但在人類會的功能愈多表現愈好,
: 顯然不是單純累加。……
哪來這樣的物理極限了? 只有他那一派才會有這個問題吧?
: 最後提到「智慧」或「認知系統」的定義問題。……
: 至於蜜蜂,也有學者認為具有智慧,但也有學者不認為,因為蜜蜂的輸入與輸出間的距離
: 雖不為零,但對環境而言,牠的反應是唯一的,行為科學家只要適當控制環境,即可非常
: 正確地預測其行為。又如人類的反射行為,其輸出入間距亦不為零,但對環境而言大部分
: 亦有固定的反應,所以一般也不認為具有智慧。
: ……
: 」
蜜蜂螞蟻之類的行為研究,主要是用來做複雜系統或網路研究,算是一個流行
題目,特別是多重代理系統上,但沒什麼人在談智慧的問題,就算用到了智慧
字眼,也不是真的在講什麼高等的智慧。
講這個只怕是他又想要打壓別人的研究了,應該是在指細胞自動機 (cellular
autometa), 是人工生命的早期研究,後引入演化概念,衍生為基因演算法,
是神經網路之外另一個連結論的研究主力。
人工螞蟻現在已經是大學生作業等級的東西了,像是這樣的:
http://0rz.net/ef1A5
: 但是,這篇批評的文章年代久遠,是92年的,現在06年所呈現出來的
: 認知科學的研究結果,卻遠比當時進步,
: 也有越來越多電腦科學家在結構上向神經科學取經,
: 例如the BabyBot project:http://www.liralab.it/babybot/robot.htm
: Jeff Hawkins的 Hierarchical Temporal Memory,
: http://yukuan.blogspot.com/2006/06/on-intelligence.html
神經網路模型是出現超過六十年,比電腦正式發明還要早的研究領域。
最早的神經網路模型,即是由羅森布拉特 (Frank Rosenblatt) 所建立的
知覺器 (perceptron), 結果被明斯基打壓,致使相關研究被壓制十幾年
之久,甚至在羅森布拉特自殺後引發寒蟬效應,相關的研究完全中止將近
十年,可說是電腦科學發展歷史上最嚴重的學術打壓事件。
到了 1982 年,霍普菲爾德 (John Hopfield) 提出了霍普菲爾德網路
(Hopfield network), 引發學界震憾,連結論躍居主流地位,明斯基的
符號運算典範在中文房間論證和霍普菲爾德網路的挑戰下,全面潰敗。
往後所有的網路模型,全都可視作霍普菲爾德網路的簡化版和加速版,
其地位如同圖林機一般,無限延伸的霍普菲爾德網路,如同無限維度的
物理空間,哪怕你認為人類智慧來自於四維以上的物理空間系統的粒子
行為也能有效模擬。
隨即有人以兔子的嗅覺系統做研究,證實霍普菲爾德網路可以有較模擬
兔子的嗅覺形成。亦即代表了知覺系統可以由電腦模擬。
而這是將近二十五年前的東西,可不是什麼近幾年來的發展。問題在於
神經網路模型所要耗費的運算力太大了,哪怕是拿 IBM 的超級電腦,
也只能模擬一萬個神經元,一萬個神經元能幹什麼事?
所以才有各種新的理論出現,試圖在實際的技術限制下更有效地發展,
若真的有無限計算力的圖林機,我們就可以真的去實驗一個足夠強大的
神經網路能否有如同人類的智慧能力。
: 所以,未來電腦的認知功能能趕上人腦多少,還是個未知數。
: 我認為任何人都不應該輕易地說未來的前景很樂觀或者悲觀。
現在這邊的問題是,哪怕電腦能比人類更聰明,也會表現情緒和感覺,
也會有哲學家根據中文房間論證,宣稱這樣的電腦沒有心靈。這並不是
電腦的能力問題。
也就是說,哪怕電腦看起來如何聰明敏慧,再怎麼樣地惹人憐愛,哪怕
它的美少女外型比你的初戀情人更美,會閱讀文學和哲學作品,會提出
我是誰的問題,會淚眼汪汪地述說自己的寂寞痛苦和需要尊重,哲學家
仍然可以說它沒有心靈,沒有資格當成人來看待,任何人都可以把它們
當作物品來隨意凌虐傷害摧毀。
然後哲學家們會說,以外在表現來判斷是一種功能論的輕率立場。心靈
哲學是不會同意這種立場的。
這十年來,所有相關日系科幻作品,都是在對抗這種本質論和將機器人
視為奴隸的機器人三定律,我也一向都無法認同心靈本質與社會倫理的
結合立場。
: 另外,reader兄可能不甚了解機器人學的進展,所以不認為那是電腦科學家的重要任務
: ,但是,越來越多電腦科學家投入這個領域,試圖要用機器人取代勞工或救災人員,
: 並且某種程度上輔助其他需要更高理解能力的職業。
: 這些是為了讓人不用再做太多危險,或不花腦力的事。
機器人學根本不是理論電腦科學,跟我們所要談的事情可以說沒有關係。
--
在忙,頂多只能一天回一篇,沒辦法再多了
似乎用一點點新名詞,純粹講述電腦科學比較好寫,不用在乎哪一個句子
又變成我做了什麼哲學主張。
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 61.222.173.29