看板 GO 關於我們 聯絡資訊
※ 引述《hdjj (hdjj)》之銘言: : : → devidevi: AI選擇投子之後,已經認為沒有贏的希望.... 05/27 23:18 : : 推 HeterCompute: 說句實話,AlphaGo想要投子的時候古力是真的完全沒 05/27 23:19 : : → devidevi: 對AI而言怎麼下都是輸,這樣不算是BUG吧 05/27 23:19 : : → HeterCompute: 機會了,古力只是想要整理一下心情,畢竟從大優變成 05/27 23:19 : : → HeterCompute: 輸棋,那時差距已經二十目了,不可能逆轉的 05/27 23:20 : 不是有意抬摃,但這裏是有盲點的。 : 這局棋就是個很明顯的例子。在人機配對賽裏,人就是最大的變數。暫且不論時力 : 故意自緊一氣自填一眼的極端例子,以人加機器這樣的組合,只要是人,就有可能 : 出錯,或是下出緩著。 : 今天配對的是兩位高手,所以這樣的情況並不明顯,換成兩位業餘棋手上去,可以 : 預期出現意外翻轉的可能性更高。 : 這在現實應用上的意義更深遠。以自動駕駛為例,AI在判定時也許總是可以做出 : 最佳決策,但總是有突然衝出的老人,油門當煞車踩的新手,硬闖紅燈的死小孩。 : 在類似這種情況下,防禦性的應對,柔軟性的妥協忍耐,都是極為重要的。 : AI在逆境劣勢裏的反應,是一個很重要的課題。應該沒有人願意看到,輸給李世 : 石的AI發神經的樣子。因為這和AI「求勝」的原始指令是有所衝突的。 : 只是這討論下去沒完沒了。這種事,還是留給黃博士這種專業人士傷腦筋吧。XD 雖然AG五局全勝,但是就內容來說,大家不得不覺得AG確實存在著弱點。這些弱點究竟 該怎麼說呢?我想就是一個:「沒盡全力。」如果以後AG是要用來服務人類,增進人類 福祉的話,AG這一個弱點會讓人覺得信用不夠。而且這個弱點若是沒有被解決的話,很 可能不能被用來作自動化服務的人工智慧。 一個超強的AG可以當工程師,但是卻絕對不能當管家。今天我們要人工智慧絕對不是解 決單一問題,而是可以綜觀全局的管家。如果AG搞不定百萬分之一出現的意外,那絕對 是一個災難。比如說我們拿AG管理雙北市的紅綠燈,我們希望AG管理的紅綠燈讓交通更 順利,結果一個突如其來的災難,讓AG耍憨了起來,搞得全雙北市的紅綠燈通通在亂閃 。這是絕對不可以的。以上週團體賽的結果來說,古力那一邊的Alphago 就是在耍憨, 而且Alphago 不是軟體工程師key 出來的函數庫,它是自我學習的整體。我猜目前 deepmind並沒有能力修改AG讓他能在逆境採取積極對策。因為如果去年AG被李世石挖到 發瘋,今年重新再次自我學習應該也要把這一點改掉,但是結果並沒有,只是用強大的 能力掩蓋這個弱點而已。只要有個人類 (豬隊友?)在旁邊作亂,AG個體能力再強也要發 瘋。但是,AG發瘋是不被允許的。事實證明,AG如果傻掉,能力比常人還差。套用到更 大的系統面上去的話將會造成毀滅性災難。 -- -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.76.22 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1495953610.A.624.html
ilw4e: 這不是沒盡全力,他的下法完全符合他"要贏"的目標 05/28 14:44
KAOKAOKAO: 如果接下來都給他下他會穩穩守住贏面 05/28 14:45
KAOKAOKAO: 套你紅綠燈的例子 都已經全部給他管了 還有人插手? 05/28 14:46
bxxl: 紅綠燈發瘋現在的系統就會啦,根本就可以接受 05/28 14:46
KAOKAOKAO: 插手之後出問題 說是原本的規劃的問題? 05/28 14:46
LeeSeDol: 阿法狗是為了贏而盡全力,不是為了贏最多目而盡全力 05/28 14:50
bxxl: 現在很多非AI的電子系統也有可能發生大當機,也要接受雷擊 05/28 14:50
shyangs: 這樣發動戰爭發現打到剩一人會贏, 不能透過外交干預 05/28 14:51
ilw4e: 所以要對人學棋更實用應該加個要多贏的目標給他,但跟勝率 05/28 14:51
bxxl: 斷電等突發狀況考驗, 怎麼驗證大系統的穩定度,早有一套方法 05/28 14:51
ilw4e: 的取捨要怎麼調整就不確定了 05/28 14:52
shyangs: 因為外交干預, 會把剩一人會贏變大敗 05/28 14:52
bxxl: 沒有人笨到未經驗證就把AI丟上去 05/28 14:52
shyangs: 顯然李世石驗證後, google沒有fix, 只做了workaround 05/28 14:56
bxxl: 因為本來就不是程式有漏的那種bug,只是資料點不夠,造成誤判 05/28 14:57
bxxl: 他們就是作了一隻anti-AG,盡量產生原AG不會走的棋步 05/28 14:58
shyangs: 用到其他領域一樣會從演算法處出問題 05/28 14:59
javatea: ..... 05/28 15:16
DendiQ: 你的目標跟 google 設定的又不同 05/28 15:44
OverInfinity: .... 05/28 15:45
DendiQ: 你想要每盤都爆勝,可他們只設定要贏而已 05/28 15:45
Nobel108: 你如何知道「沒盡全力」的這種看似讓法不正是人類棋手 05/28 15:49
Nobel108: 所缺少的? 05/28 15:49
ilw4e: 不是人類缺少,而是對人類沒意義。人類前期計算力沒精確到 05/28 15:55
ilw4e: 可以完美控制勝勢,而後段官子人類窮舉法跟機器一樣好也不 05/28 15:56
ilw4e: 會去學機器那種走法 05/28 15:57
ksm: 1.目標不同 2.即使沒盡全力也比人類最佳決策好 05/28 16:23
ilw4e: 不會比較好,人類官子只要不誤算常常能滿足上帝窮舉法 05/28 16:53
ilw4e: 取決計算複雜程度,只要人類能窮舉的必優於或等於AI機率決策 05/28 17:00
s891234: 。。。目標不同罷了 05/28 17:03
ddavid: 目標設定就是贏,而他贏了你說沒盡全力? 05/28 17:13
ddavid: 我們確實不知道如果把目標改成最高目數勝來重新訓練的話, 05/28 17:14
ddavid: AlphaGo會有什麼表現確實很讓人想看,但那是完全不同問題 05/28 17:15
ddavid: 人類會追求最高目數事實上只是算不清而怕被翻盤的恐懼罷了 05/28 17:15
ddavid: ,想著能賺時盡量賺來補充失誤時還回去的部分 05/28 17:16
louis210000: 兩回事 05/28 17:22
Sechslee: 搞不懂狀況 05/28 18:47
sifone7251: 只能說你連AG確實已經用他的方式"全力"求勝都看不懂 05/28 18:53
Kydland: Google幹嘛燒錢去打造一個下棋超級完美的電腦...... 05/28 19:01
Kydland: 重點在於多元的應用 圍棋只是這個計畫的初步探索 05/28 19:02
Kydland: 而且至少目前看來這套演算法理論是有用的 05/28 19:02
Kydland: 你說他下爛棋擺爛 退讓 但有差嗎 還是贏了 05/28 19:03
Kydland: 不要下到輸棋這麼離譜的失誤就夠了 05/28 19:04
Kydland: 退讓退到輸 那就一定是有問題 05/28 19:04
Kydland: Google不是來兜售圍棋軟體的好嗎....... 05/28 19:05
Kydland: Google的投資人看Google燒300億做圍棋軟體 不氣死才怪 05/28 19:10
y800122155: 不要發廢文... 05/28 21:45