→ ginstein: AlphaGo 沒有弱點了?找出下法的弱點不能稱為找bug? 03/12 00:00
推 nnlisalive: 我覺得輸出結果不是設計師所預期的就是BUG了 03/12 00:02
Bug部分下面很多大大推文已經詳細解釋了這不能稱作Bug的原因了
所以Google現在也在測這套系統實際上能發揮到什麼地步
也就是Model本身的能耐到底能到達什麼程度就是了
推 tookouw: 在訓練模式中,model本身是可以回饋自己修改自己的函數 03/12 00:08
→ tookouw: 所以如果都輸入某人的棋譜,這函式就會有某人的風格 03/12 00:09
→ tlm: 輸出結果當然不見得是設計師預期 不然AG就只有黃世傑的棋力 03/12 00:11
推 arnold3: 電腦的計算能力跟心理素質確定比人類強 其他地方可未必 03/12 00:11
推 tookouw: AG在這個回饋機制中不斷的修正自己的函數群 就會變"強" 03/12 00:12
→ ddavid: 要統稱為bug也不是不可,但這個案例的問題在於你很難評估 03/12 00:18
→ ddavid: 這所謂的「bug」到底是好的或壞的 03/12 00:18
→ ddavid: 過去我們都說bug是壞東西要debug,但這類演算法的輸出原本 03/12 00:19
→ ddavid: 就不是原設計者可以預期的,因此不管是人想不到的好手或是 03/12 00:20
→ ddavid: 真的爛下法都會因此被你統稱為bug,結果就是即便你抓到了 03/12 00:20
→ ddavid: 這些「bug」也會因為你無法分辨是好bug還是壞bug而仍然難 03/12 00:20
→ ddavid: 以利用 03/12 00:21
推 blackwindy: 簡單來說 你所謂的bug只會發生在code本身有沒有寫錯 03/12 00:29
→ blackwindy: 這種架構下 邏輯是不會出錯的 而且現在已經驗證可以打 03/12 00:30
→ blackwindy: 因為他的架構太複雜 輸出具有不可預測性 03/12 00:31
→ blackwindy: 只能直接上線測看看到底有沒有用 03/12 00:31
→ blackwindy: 換個說法 做這東西就是拿來下棋 強度? 不知道 03/12 00:32
推 paperbattle: RL在這十幾年來 常常做為訓練board game AI的手段 03/12 00:51
→ saranggeyo: 左邊那個博士說的什麼啊﹐還alphago自動改程序﹖ 03/12 01:01
→ saranggeyo: 右邊的俞斌寫過圍棋程式的﹐左邊不太會解釋啊 03/12 01:02
http://v.qq.com/page/q/0/v/q0019w6oaxv.html
重看了一下,左邊那位是地平線機器人CEO"余凱",右邊就是你提到的俞斌
余凱的說明都是依據學習模型之類的現代處理方法(有提到AlphaGo用CNN處理)
俞斌的話就還停留在比較舊式的圍棋程式想法,比較沒有現在ML的學習概念
※ 編輯: reinhert (175.180.166.106), 03/12/2016 01:41:46