推 maplefoxs: 前幾盤可能可以贏吧 06/15 15:08
→ maplefoxs: 我覺得這個議題蠻好的 值得一試 06/15 15:09
→ HeterCompute: 如果什麼都不動,alphago不能下20路圍棋,因為連輸 06/15 16:28
→ HeterCompute: 入只能是19路棋盤,但是如果經過一些技巧訓練個1天 06/15 16:28
→ HeterCompute: ,贏過人類還是綽綽有餘 06/15 16:28
推 kria5304: 應該要重新train吧 但只要input維度改一下 其他架構大概 06/15 16:48
→ kria5304: 可以沿用 感覺是這樣 06/15 16:48
推 q6261901: 之前用leela跑19路之外,全部都當成19路在下 06/15 21:01
→ forb9823018: 有影響 但不會到非常劇烈 06/15 22:54
→ forb9823018: 對人類而言 06/15 22:54
→ AmibaGelos: 主要是cnn對邊緣太敏感 提供座標給cnn能部分解決問題 06/15 23:16
→ AmibaGelos: 圍棋的話多輸入盤面大小應該任意盤面都能共用網路吧 06/15 23:16
推 ddavid: 其實了解深度學習的話就知道這沒什麼好驚訝的啊XD 06/16 00:27
→ ddavid: @AmibaGelos 把棋盤大小也都當參數當然也不是不行,但這樣 06/16 00:29
→ ddavid: 實質上等價於每種大小的棋盤分別訓練,甚至未必比較好 06/16 00:29
→ ddavid: 你如果想要用這種方式把20x20也同時訓練起來,造成的結果 06/16 00:30
→ ddavid: 就是所花的時間(或訓練到一定棋力所需局數)就是19x19所 06/16 00:30
→ ddavid: 需 + 20x20所需,至少以現有架構而言它沒有學習不同盤面大 06/16 00:32
→ ddavid: 小共通知識的能力。未來技術再發展也許慢慢會往這邊前進, 06/16 00:33
→ ddavid: 人類舉一反三的能力一直都是共通型AI的長遠目標 06/16 00:34
→ AmibaGelos: 不一定吧 如果有無關盤面大小的準則的話 大小就標定 06/16 17:35
→ AmibaGelos: 邊緣而已 類似標定黑白 策略確實不同 但不是不會重疊 06/16 17:35
推 enjoytbook: 人家AI就跟人類不一樣啊 06/17 10:10
推 ddavid: AI目前這種學習方式就是學不到那樣的通則 06/17 17:47
→ ddavid: 現在是貼目數不同都會無法完全通用的狀態,AI學不到那種「 06/17 17:49
→ ddavid: 我把現在當作落後所以攻兇一點就搞定了」的轉換性概念。當 06/17 17:50
→ ddavid: 然有一組AI的目標設定為就算領先也會盡可能繼續取得目數而 06/17 17:50
→ ddavid: 不要退守,那個設定就相對能應付貼目改變問題,但付出的代 06/17 17:51
→ ddavid: 價就會是潛在的安定性。 06/17 17:52
→ ddavid: 至於盤面大小,現況是不同盤面肯定要重新訓練的情況,不然 06/17 17:53
→ ddavid: 別說複雜細算了,征子算錯的情況都有可能發生。在19路棋盤 06/17 17:54
→ ddavid: 訓練出來的模組採用一個征子有利的下法,到了20路變成征子 06/17 17:55
→ ddavid: 不利,深度學習選取棋步時可能並不會發現這個問題 06/17 17:56
→ ddavid: 這點反而是傳統搜尋式AI有機會搜尋下去發現問題,搜尋層數 06/17 17:57
→ ddavid: 足夠的話。 06/17 17:57
→ AmibaGelos: 也許吧 有空設計個網路混合訓練6*6~9*9 應該很有趣xd 06/18 00:41
推 staristic: 說到征子,以現在的架構,盤面越大征子好像要練訓越久? 06/18 00:50
→ staristic: 理論上好像越大的棋盤人類越有機會用征子套爆AI 06/18 00:50
推 ddavid: 應該說本來手數多的套路如大型定石、長時間劫爭這些本來就 06/18 17:59
→ ddavid: 是要訓練更多局才會有機率覆蓋到完整最佳著手 06/18 17:59
推 ddavid: 征子本來可以視為一個很長的套路,然而征子是一個人類能 06/18 18:06
→ ddavid: 夠用共通概念推理快速簡化計算的特例,圍棋AI沒有這種簡 06/18 18:06
→ ddavid: 化概念,需要真的實際算過 06/18 18:06
推 ddavid: 所以盤面越大當然就大幅增加訓練時間。一方面要模擬完一 06/18 18:08
→ ddavid: 局需要更久,而獲取足夠資訊所需的訓練對局數也大幅增加 06/18 18:08
推 ddavid: @AmibaGelos 混合訓練不同大小目前事實上就是無意義啦。 06/18 18:12
→ ddavid: 對AI問題是全等於分開訓練,而且反而有可能因為對於盤面大 06/18 18:12
→ ddavid: 小這個參數的模糊化導致模型品質的下降 06/18 18:12
推 jojoStar: 以人類觀點來說 這不就叫做 不知變通嗎XD 09/13 01:54