推 celestial09:讚! 人文科學與自然科學本就是相通的 :D 03/27 01:40
推 nightheart:我也喜歡作者以資訊和認知神經的背景來討論這個議題, 03/27 02:58
推 brendonfish:滿多證據支持有關辨認的視覺傳導路徑是階層架構的 03/28 11:08
→ brendonfish:Tanaka 在 area TE 找到對物體基本形狀反映的神經元 03/28 11:11
→ brendonfish:Edmond Roll 在更底下的 STS 發現對臉反映的神經元等 03/28 11:12
→ brendonfish:以上都是猴子的 cell recording 結果 03/28 11:13
> -------------------------------------------------------------------------- <
作者: mulkcs (mulkcs) 看板: Cognitive
標題: Re: [討論] 好書推薦_創智慧(on intelligence)
時間: Mon Mar 29 11:58:26 2010
※ 引述《itrs821 (酗咖啡)》之銘言:
: 光看封面會以為這是一本講述人工智慧(以下簡稱AI)的書,
: 不過閱讀之後才發現非但不是如此,而且還大力抨擊所謂的AI,
: 不過這沒有抹滅我的興致,而且還被帶進一個更為入勝的世界之中...
: 根據作者的說法,現在的AI理論是條死胡同,不管架構再怎麼精緻也很難與人類匹敵,
: 因為不管在速度或是容量上,現今的電腦比起人腦都不惶多讓,
: 但是在功能上卻還是遠遠落後
這段看了讓我有一些感想,不過卻有可能有些離題。XD。
我一直覺得AI領域有很大部份人在做"知識表徵",在認知層面也好在神經層面也好,
都面臨到底一對多,或是多對一的問題。例如神經層面有grand mother cell vs
cell assembly,認知層面有hierarchical model vs PDP model。
但一對多或多對一是否真的互相對立?
舉個人類的例子,一個人有著許多能力,但一個人可以完成的事情有限,有些事情需要
很多人一起合作才能完成。例如,我可以演奏很多樂器,但卻無法獨自演奏一場交響樂
。可是我在不同的表演也許可以表演不同的樂器。我在團體A可以扮演的角色和團體B扮
演的角色可以有很大的不同,但都是我這個人,並且通過與其他人的合作來完成一個交
響樂的表演。
而神經元上是否也是如此?神經相互合作去處理一件事情已經很多證據,但一個神經有
多種能力也在鏡像神經元中發現。若不要小到神經元上,在腦區之間也是如此,一個腦
區有著自己獨特的功能而且通常一個區域不會只有一個功能,例如視覺皮質區,但在語
言作業、記憶等都會有視覺皮質區的介入。這表示實際上我們人腦的運作方式要複雜的
多。
但這裡有個更基本的問題,一個基本的心智功能是什麼,我們的心智功能的最小單位是
什麼?如果釐清了這點,那麼也許更能瞭解我們大腦是如何運作的。
: 所以一定是在基本的本質上有了歧異,才會有這麼大的落差,
: 如果不重新定義對於智慧的看法,我們再怎麼努力也無法貼近真實的智慧。
: 作者在書中提出一個新的理論(也許是綜合各家之說),
: 他把智慧的記憶稱為「預測架構」。
: 簡而言之,就是大腦以神經柱為基本的預測單位,藉由一個普遍的general算則
: 將預測的top-down訊息和感覺的bottom-up兩者做比對
: 有趣的是他認為v1其實是很多細小模組的組合,而不變表徵其實在低階的視覺皮層
: 就已經展現,只是高層的視覺皮層(如IT)確認了低層的pattern而獲得辨識,
: 而皮質間的回饋則是每一層都有,V2也會將所得的刺激往V1,這與現今的發現不謀而合。
: 由此觀之,我們對世界的表徵其實是一層層的包裹,而成階層性的結構。
: 對書的介紹我就不再多提,有興趣的同好可以去找來看!以下亂入一點心得文....
: -----------------------------
: 過去常在書裡看到平行處理,可是卻找不到一個清楚的結構被描述出來...
: 所謂的平行處理還是停留在模型階段...(永遠都可以fit結果,端看你要加幾個參數)
這裡我有問題,就是平行處理怎麼又會是階層性的結構呢?還是我會錯意了。
: 我曾經在暑期學校詢問過幾位做MRI的老師,MRI是否可以觀察到皮層間的活動
: 對我來說,找到一個對應的大腦區域,只是比較精緻的按鍵反應而已...
: (抱歉!希望不會得罪太多人)
事實就是如此 xD
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.112.4.200
→ ykjiang:《大腦如何思考》一書有類似的觀點,且寫得更詳細,可參考 03/29 21:41
→ vsdvd:不過那個所謂的達爾文機制感覺上和創智慧裡面的觀點不一樣 03/29 22:50
推 takanaka:一點關於model fitting的想法. 如果在方法上使用machine 03/30 02:05
→ takanaka:learning 常用的cross-validation. 並不總是越多參數越好 03/30 02:07
→ takanaka:overfitting通常會在evaluation的時候得到punishment 03/30 02:07
→ takanaka:我想現在做計算模擬的多數對這個議題都有所著墨 03/30 02:09
> -------------------------------------------------------------------------- <
作者: takanaka (ithaca) 看板: Cognitive
標題: Re: [討論] 好書推薦_創智慧(on intelligence)
時間: Tue Mar 30 02:46:09 2010
感覺值得藉此再討論一下cognitive science在理論取向上一些與傳統實驗科學(例如生物)
不同的地方。
cognitive science和AI確實分享一些共同的假設,例如知識表徵的必要性。
知識表徵其實沒有聽起來這麼玄(或像很多人想的這麼不科學)。
用知識表徵來解釋認知就好像物理學用波義耳定律描述氣體運動,
用牛頓定律描述引力。波義耳定律是氣體嗎?不是,它只是一種近似、一種模擬,
但它確實讓我們對於氣體的自然本質與規律有所了解。
近代物理告訴我們的是,牛頓定律對於引力的描述其實在某些層次是錯的
是不準確的。其他的理論可以描述預測的更好。但牛頓定律確實在大多時候夠用也有
其簡潔性。
因此我想因為AI或計算取向不能完全複製人類認知,就判定其對認知的了解沒有用途是
言過其實。AI為基礎的機器人無法與人類匹敵是一回事,計算取向作為一種方法與理論
能不能增進對人類認知的了解則是另外一回事。現在就放棄計算取向,我想還太早。
尤其在過去二十年間,其實有很多令人興奮與印象深刻的計算模擬研究。
※ 引述《mulkcs (mulkcs)》之銘言:
: ※ 引述《itrs821 (酗咖啡)》之銘言:
: : 光看封面會以為這是一本講述人工智慧(以下簡稱AI)的書,
: : 不過閱讀之後才發現非但不是如此,而且還大力抨擊所謂的AI,
: : 不過這沒有抹滅我的興致,而且還被帶進一個更為入勝的世界之中...
: : 根據作者的說法,現在的AI理論是條死胡同,不管架構再怎麼精緻也很難與人類匹敵,
: : 因為不管在速度或是容量上,現今的電腦比起人腦都不惶多讓,
: : 但是在功能上卻還是遠遠落後
: 這段看了讓我有一些感想,不過卻有可能有些離題。XD。
: 我一直覺得AI領域有很大部份人在做"知識表徵",在認知層面也好在神經層面也好,
: 都面臨到底一對多,或是多對一的問題。例如神經層面有grand mother cell vs
: cell assembly,認知層面有hierarchical model vs PDP model。
: 但一對多或多對一是否真的互相對立?
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 128.84.173.38
推 LeeSeDol:hi, 可以簡略提一下那些計算模擬研究嗎? 03/30 20:17
→ LeeSeDol:或者提供關鍵字可以讓我有個找資料的方向, 3q 03/30 20:18
→ takanaka:我比較熟悉的領域裡像LSA, topic modeling我想都是好例子 03/30 23:52
→ takanaka:可以找一下Kintsch, Griffirths, Steyvers這些名字 03/30 23:53
→ takanaka:還有Tenenbaum 03/30 23:54