→ HeterCompute: 深度學習產生的價值網路不就是你說的理論二嗎 11/02 10:54
→ HeterCompute: 人類根本無法用這套理論去參透圍棋 11/02 10:54
我是認為在理論(1)架構下接近理論(2)但還沒達到理論(2)的境界啦,
畢竟現在AlphaGo看起來很新穎的下法,人類還是能夠分析,
感受到那一步的強大。
要達到理論(2)的境界我認為要第一步讓人類完全無法理解到底在做什麼。
直到AlphaGo連續下了五手,人類看了後五手,回去推算才發現原來第一手極神。
這才算是下出一步人類無法理解的棋吧。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:02:40
→ HeterCompute: 另外人類對弈的數量根本沒有辦法達到深度學習的門檻 11/02 10:56
→ HeterCompute: 另外Aja也說過現在的AG已經能面對第四局的混亂情況 11/02 10:57
→ HeterCompute: 改善的只是價值網路受訓再更久一點 11/02 10:58
→ HeterCompute: 結論是現在電腦已經可以下出人類下不出的步數 11/02 10:59
→ HeterCompute: 而且有些也無法完全被人類理解,這才是棋迷對於 11/02 11:00
→ HeterCompute: 人機大戰著迷的地方 11/02 11:00
我中段有提到,我認為現在的AlphaGo只是下出人類未來十年、二十年後才會發現的步數,
人類現在下不出來,不代表未來下不出來。
至於關於第四戰挖的修正,時間久遠我也記不清楚原文是怎麼說,
我是看內部人員Twitter提到,是修正關於廣度價值的判斷。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:08:49
推 paulli: 請問可借轉文於弈棋嗎? 11/02 11:06
如果有需要的話歡迎阿。
→ HeterCompute: 你的意思應該是人類無法理解"並且是妙手"的棋吧 11/02 11:07
→ HeterCompute: 那種根本已經是圍棋之神已經把所有變化都算清的境界 11/02 11:08
→ HeterCompute: 任何heuristic的方法應該都達不到你說的境界吧 11/02 11:09
感覺得出氣勢磅礡表示還是在同一個層次,
看不出用意結果被打很慘是高出一個層級。
這是我的區分方式啦,畢竟我是想分享我的感受。
我認為你說的很有道理。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:15:11
→ HeterCompute: 目前棋界並不覺得四路肩衝是未來會下的步數 11/02 11:10
→ HeterCompute: 這是只有電腦才會下的,因為違反了圍棋百年的棋理 11/02 11:11
→ aaaba: 理論一太老舊了,現在複雜的系統基本上都是理論二。機器學 11/02 11:11
→ aaaba: 習的目標就是為人類無法言語描述的經驗法則找到適合的模型 11/02 11:11
→ aaaba: ,通常這些模型的外在行為很聰明,可是內部找不到什麼規則 11/02 11:11
→ aaaba: 一規則二這種條列式的人為指令 11/02 11:11
→ kenwufederer: 感覺神之一手是對手也要被抓到心理才成立 11/02 11:12
→ kenwufederer: 圍棋始終是兩個人下的,假如小李心態都像第五盤 11/02 11:13
→ kenwufederer: 不一定會是4比1的結果,或者說 11/02 11:14
→ kenwufederer: 棋盤就是一樣大小,電腦算出勝率最高 11/02 11:15
----------高光-----------
感謝啊!原來有中文資料阿,害我還在想要不要回去翻Twitter苦惱中 (?
所以的確是策略網路在正解算太深以致無法算到機率極小的挖,
但並不是靠工程師修正參數而是他自己變強就解決了 XDDDD
-------------------------
→ kenwufederer: 也就是能贏最多目,沒有衝突 11/02 11:15
的確不衝突,但我認為追求勝率最高和追求目數最高還是有點不同。
我不知道這樣比喻是否同樣可以用在圍棋上,
但這就像分岐度小、終端值小、路徑加權高,
和分歧度大、終端值高、路徑加權低的差別。
高風險高報酬 (?
→ kenwufederer: 不可能去期待電腦盤面贏職棋20目吧? 11/02 11:16
→ HeterCompute: 像第三盤一開始就崩了就有可能啊XD 11/02 11:18
→ aaaba: 理論一和二的差別與效果無關,即使用理論二搞出來的系統, 11/02 11:23
→ aaaba: 也有效果爛到不行的,兩者的差別是手段的不同 11/02 11:24
我好像沒有分析到兩個理論的效能問題,
不過理論(2)演進過程需要吃比較多堆疊空間這是肯定的。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:30:47
→ aaaba: 這麼說好了,假設我用理論二發展出一個中英翻譯系統,結果 11/02 11:29
→ aaaba: 非常好,所謂非常好,不就是人人都能理解翻譯後的語義嗎? 11/02 11:29
→ aaaba: 哪有什麼境界不境界的 11/02 11:29
理論(1)翻出來的就像現在的google小姐,
這就是我想表達的境界不同 (ˊ˙_˙ˋ)
→ aaaba: 所以說即使alphaGo下出來的棋讓高手都感到舒服,你也不能因 11/02 11:34
→ aaaba: 為招法還是被人認同就說alphaGo 的境界不到理論二 11/02 11:34
AlphaGo已經透過了我們還不能理解的方式下出了威猛的棋。
我上面的說法的確有瑕疵。
不過我的假設是未來的人類有機會研究出那一步棋。
也就是對於人類整體來說並不算是理論(2),
但對於現代棋手來說,似乎當作理論(2)也沒什麼不妥。
也就是我論述的基礎是:
現代人能夠理解的東西,未來人自然有機會發現。
現代人完全無法理解的東西...未來人能否發現是未知。
而理論(2)就是用來發展人類沒有機會理解的東西。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:40:29
不會 (ˊ˙_˙ˋ)
有看完文章和回文的人比我想像中的多一些,小小感動。
※ 編輯: hioska (36.234.153.156), 11/02/2016 11:44:49
→ aaaba: 那理論一二的差別豈不是變成自由心證了,沒聽過這種分類方 11/02 11:51
→ aaaba: 式,用人對結果佩不佩服來分類工程方法,不是不可以,只是 11/02 11:51
→ aaaba: 這樣來說,就只是個人主觀的分類,哪裡還有“理論”?不如 11/02 11:51
→ aaaba: 說我把演算法分成兩種,一種是我佩服的,一種不是 11/02 11:51
好像有點主觀。但不論是哪一個理論我都蠻佩服的。
現在的AlphaGo強度也遠遠超乎我當初的想像。
不過我認為AlphaGo還沒脫離理論(1)的感受主要源自開局還是古老棋譜中常見的。
我不認為圍棋的開局會止步於此,未來還是會有發展的。
等未來的發展輸入棋譜庫後,或許還會再進化。
這或許是主因吧,總之就是個人感受。
畢竟本系列串討論的就是對於機器戰勝人類的看法。
而我認為機器目前還處在人類同等級階段,只是跑在前面一點。
還沒有達到完全擺脫人類影子的階段。
另外回覆一下上面,
說明一下我對於高勝率和高勝目數選擇會不同的看法,
這是個假想情境:
整盤棋已確定局勢,其他部分不論先後手結果皆是+0目。
某步若對方正確應手我方-1目,對方若錯過程任何一手我方+5目,
另一步不論對方應手如何我方皆+1~2目,
前者的期望值,略高於後者,但後者勝率100%,前者有輸的可能。
※ 編輯: hioska (36.234.153.156), 11/02/2016 12:12:36
→ kenwufederer: 這樣就不合邏輯了,電腦是能擺出後續手段的 11/02 12:54
→ kenwufederer: 電腦不可能故意下自己已經算到虧目還下 11/02 12:54
→ kenwufederer: 要說小李神之一手並不成立,電腦沒理而已 11/02 12:55
→ kenwufederer: 但電腦最後把自己下輸,原因不是對手正確 11/02 12:57
推 ddavid: 你講的大部分都不錯,我只有一點想小修正建議的是你對於文 11/02 12:57
→ kenwufederer: 而是自己計算一直錯誤,但87手發現時,已經無法挽回 11/02 12:57
→ ddavid: 中理論一跟二的分界定為「人能否理解」這點是有待商榷的 11/02 12:58
→ ddavid: 因為我們並不知道神之一手位在多高的高度。如果那個高度並 11/02 13:00
→ ddavid: 沒有想像中那麼遠,則人類終究可以解釋所有著手(就算自己 11/02 13:01
→ ddavid: 下不出來)的可能性是存在的。 11/02 13:02
→ ddavid: 若此,則不能用人是否無法理解來做為分界。而且圍棋的本質 11/02 13:04
→ ddavid: 是計算,就理論上只要給人類無限的時間,所有著手都可以被 11/02 13:04
→ ddavid: 理解並解釋(即便可能為了解釋一手棋就寫出厚厚一本書) 11/02 13:05
→ ddavid: 故此我認為你所謂理論一跟二的分野是很薄弱的,而且事實上 11/02 13:06
→ ddavid: 並不重要,你大可把這部分論述移除也不影響你整篇講得不錯 11/02 13:07
→ ddavid: 的內容。加了那部分其實反而增加了一些閱讀困難。 11/02 13:08
推 ddavid: 當然我可以想像你為何會做出這種分界方式的脈絡,因為你認 11/02 13:14
→ ddavid: 為人類會傾向於整合規納某些規則來進行解釋,所以有可能會 11/02 13:15
→ ddavid: 發生無論如何難以整合歸納的著手。只是你忽略了人類也有用 11/02 13:18
→ ddavid: 窮舉來解釋分析著手的能力,而有這個能力就表示給予無限的 11/02 13:19
→ ddavid: 時間下所有著手都可以被解釋。 11/02 13:19
有可能對我來說,圍棋是個不需要理論(2),
人類就有辦法自己達到終點的問題吧。
這可能信仰多過於實際理論了,
簡言之電腦只是加速了這個進程。
在未來人類可以發現出每一手棋的假設裡面,
在圍棋裡或許沒有理論(2)出現的餘地。
由於我的理論(2)是創造新的規則,而不是新的下法。
所以我比較想說的或許是對於圍棋規則本質上的改變。
不過對於情勢判斷上,AlphaGo似乎也讓不少棋手開始改觀,
或者開始分析AlphaGo的著手,依照這個觀點來說,
AlphaGo的確已經達到理論(2)的境界,
也沒有必要用這種定義去區分他是哪個理論。
※ 編輯: hioska (36.234.153.156), 11/02/2016 17:29:31
推 yenku: machine learn的做法比較偏2 人類幾乎無法理解機器如何達 11/03 09:00
→ yenku: 到現在的決策網路 11/03 09:00
→ yenku: 而不是由預先設計好的演算法在執行 11/03 09:01
→ yenku: 電腦有沒有辦法下出人類無法下出的一步棋? 11/03 09:01
→ yenku: 沒辦法呀 棋盤位置電腦能下的人都能下.... 11/03 09:03
→ yenku: 只是alpha go 左右互搏了三千萬局以上 11/03 09:03
→ yenku: 再怎麼跟人類下 統計意義應該都不大 11/03 09:04
→ yenku: 針對人類棋手最佳化也太冒險了 11/03 09:05
推 LCamel: 電腦判斷情勢的規則不需要由人給 11/07 13:42
→ LCamel: 電腦要下贏棋 也不見得需要所謂的"理解" 11/07 13:43