精華區beta C_Chat 關於我們 聯絡資訊
這種需要靠反應力的東西 程式做的已經的比人類好太多 像這種會需要拚手速的比賽 一般會限制手速,避免AI太佔優勢 以及像是戰爭迷霧方面 這種比賽,也會限制程式能取得訊號 讓程式能獲得的資訊跟人類差不多 會是場公平的競賽 PS. 現在所有的策略遊戲的內建AI,在最難的模式下,都會作弊 因為那些AI的用途是娛樂性,不是研究性 遊戲內的AI的目標是「製造一個讓玩家覺得有挑戰性又能戰勝的對手」 並不會考慮公平性以及技術性 所以不要把那種AI跟這種研究性質的AI相提並論 在十幾年前 AI陸戰隊的神走位與狗對坦克的神閃避,那段影片出現時 還有人認為人類能夠以戰略層級的角度 營造出,AI即使在局部戰鬥取得優勢,也無法挽回的戰局,來獲得勝利 或是,認為戰略遊戲複雜度太高,電腦算不出來 以及認為 遊戲中有不確定的因素(例如戰爭迷霧)導致電腦無法計算 人類會因此獲勝 這樣想也搞錯AI的優勢到底在哪裡 AI的優勢在於「演算法的發展速度」以及「硬體的演進速度」上 想看看現在的電腦,跟小時候的電腦 不論在演算法上,或是硬體上的差距,都非常的大 電腦跟人腦的演進速度,根本是不同層級的速度 舉例來說,深藍(下贏西洋棋棋王那台)的演算法 是用Min-Max演算法去排除大部分沒必要考慮的走法 那可以把這種演算法看成「比較好一點的窮舉法」 但才過十幾年 Alpha Go 在演算法上 已經脫離窮舉,而是使用比較接近「直覺」的運作方式 否則現在的計算力根本沒辦法處理圍棋的複雜度 這次 AI 跟人類比《星海爭霸》 AI或許沒辦法贏人類玩家 明年說不定也不會 但是後年?大後年?五年後?十年後? 問題不是「AI能不能贏過人類」 而是「AI哪時候能贏過人類?」 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.227.87.115 ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1508915646.A.AEF.html
tonyxfg: 把AI做成蘿莉外型應該就能贏了 10/25 15:17
d630200x: 說到這個我覺得給AI電腦作弊真的很靠背 10/25 15:17
iouhsu: 所以阿法狗到底是用什麼演算法 有沒有八卦 10/25 15:17
arrenwu: 現在不就已經是 AI 哪時候能贏過人類了? 10/25 15:17
arrenwu: AlphaGo就 Reinforcement Learning 啊 10/25 15:18
OrO3: 遊戲製作都教人,寫AI的時候把血量加高,就能讓玩家覺得難度 10/25 15:18
OrO3: 被調高了。超簡單的。 10/25 15:19
OrO3: 或是定時空投資源給AI,也能讓中等難度的AI變成高難度AI。 10/25 15:20
OrO3: 大部分沒作弊的ai都只中級左右難度,高難度都是靠那種方式弄 10/25 15:20
OrO3: 出來的。 10/25 15:21
arrenwu: 現在是希望AI學得夠快 10/25 15:22
shinobunodok: 拼手速的話 記得看過有影片 AI微操小狗躲坦克轟炸 10/25 15:22
NoLimination: 戰爭迷霧使AI無法獲得完整情報,AI不見得能做出正確 10/25 15:22
NoLimination: 的選擇,應該很難發生AI一面倒的戰況 10/25 15:22
shinobunodok: 坦克原本可以一次炸一群 現在只能炸一隻 10/25 15:22
win4104: 現在阿法狗團隊的瓶頸是 沒辦法把戰局優劣勢簡單實時的 10/25 15:23
win4104: 量化 10/25 15:23
arrenwu: 以DeepModel來說,問題只在於參數怎麼訓練好而已 10/25 15:23
win4104: 所以算再快也沒用 10/25 15:24
OrO3: NoLimination 那人類打人類有可能出現一面倒嗎? 如果可能的 10/25 15:24
arrenwu: 你如果沒辦法讓資訊變得簡單,這AI可能要訓練到天荒地老 10/25 15:24
win4104: ai根本不知道這步是對是錯 10/25 15:24
arrenwu: 比如說一個AI也許訓練10年可以贏人類 但就沒有意義 10/25 15:24
OrO3: 話,AI比賽時也可能出現那樣的狀況。 10/25 15:24
KMTisdog: 看看蘇趴AI玩遊戲的影片就知道要贏人類應該還要一段時間 10/25 15:24
laba5566: 樓上不要說太早 感覺之後一下就攻克惹 輕鬆被AI屌虐 10/25 15:25
NoLimination: 我的比較點是圍棋啦 已經一面倒了 10/25 15:26
kira925: 那個散狗躲坦克的有作弊讀取記憶體偵測坦克攻擊目標 10/25 15:26
ZMTL: 大部分的電腦遊戲AI都是像血量調高、跳錢加快之類吧,反正 10/25 15:26
ZMTL: 又不是要公平對戰只是要逼玩家拿出更高的技術應對 10/25 15:27
arrenwu: 圍棋一面倒是因為沒有隨機性啊 星海這種比較不會啦 10/25 15:27
OrO3: 現在訓練上的問題是「每局時間」,因為現在訓練ai還是很沒 10/25 15:27
arrenwu: 只是 10場贏個9場是有可能的 10/25 15:27
OrO3: 有效率,圍棋是因為能夠快速走棋,所以能壓縮時間。 10/25 15:28
gibbs1286: 那個fgo的即死... 10/25 15:28
OrO3: 訓練星海就.... 問題很大,看星海給不給快速跑賽事讓ai去訓 10/25 15:28
OrO3: 練。 10/25 15:28
arrenwu: 快速跑對戰我覺得應該可以吧 就差不多是時間軸調快 10/25 15:29
arrenwu: 跟fps遊戲開外掛是一樣的意思 10/25 15:29
kira925: 要做是可以 把所有遊戲時間都等比例加速... 10/25 15:30
NoLimination: 其實我比較想看AI打lol五打五怎麼打團戰 10/25 15:30
gibbs1286: 他們團隊的理想是同時多帳掛網爬天梯 10/25 15:30
kira925: 但是變數太多了 單純一個王蟲在某一張圖怎麼飛可能就要練 10/25 15:30
OrO3: 可能需要壓縮到幾秒鐘一局的速度的程度喔.... 10/25 15:31
kira925: 幾十個小時 而通常你有七張圖要分析.... 10/25 15:31
OrO3: 其實,隨機性不是問題啦.... 10/25 15:31
kira925: 隨機性不是問題 但是隨機性製造的分析量是大問題 10/25 15:32
arrenwu: 這部分應該比較像是data processing的問題了XD 10/25 15:32
arrenwu: 如果是使用raw data 我看AI只能玩沙了 10/25 15:32
kira925: 針對星海RP做數據分析的工具已經不少了 10/25 15:34
以目前的AI來說,還是有缺陷在的 以AlphaGo Zero來講 他花了40天的時間訓練後,對上 Master 能達到近 90%勝率 40天聽起來很短,但如果考慮ai的訓練速度 40天可能已經進行幾百萬,甚至上千萬次的對局 但人類一輩子所下的圍棋,可能也只有幾萬場,甚至不到萬場 https://technews.tw/2017/10/19/alphago-zero-learning-from-scratch/ 如果把上面的圖片的時間軸 橫軸改成「對局數」 那應該會是慘不忍睹的狀況 所以,想用目前的ai技術,在星海那類遊戲獲勝的話 方法一:想辦法降低每一場的運行時間 方法二:提升每一局學習的效率 哪時候會突破?不知道 ※ 編輯: OrO3 (125.227.87.115), 10/25/2017 15:49:11
kira925: 但是 針對每一個動作做分析目前無解 10/25 15:34
kokokko416: 紅色警戒3的AI真TM超鳥,困難敵人會自動偵測你出什麼 10/25 15:38
kokokko416: 兵,對方就生一堆克制兵種,舉例來說我生產一堆坦克 10/25 15:38
kokokko416: 準備去轟他們家,結果一進去,戰爭迷霧一開,他們整 10/25 15:38
kokokko416: 個基地滿滿坦克殺手,我一整個嚇尿,而且當時根本戰 10/25 15:38
kokokko416: 爭迷霧都沒開,他怎麼知道我要幹麻? 10/25 15:38
win4104: 現在卡的問題不是演算快慢 10/25 15:43
win4104: 而是如何即時的評價操作選擇 10/25 15:44
win4104: 這個演算法還是要人去想 不太可能期待AI自己解決 10/25 15:44
Kenqr: 不用吧 阿法狗就沒有人為評價 10/25 15:45
seaEPC: 體諒一下當年(現在)寫遊戲AI的人,他們可沒那個人力物力 10/25 15:46
seaEPC: 去寫個通用AI跟你對戰啊 10/25 15:46
win4104: 圍棋是回合制而且情報完整 10/25 15:46
win4104: 遇到同樣的型走哪一步的勝率可以從過往的棋譜裡分析 10/25 15:47
win4104: 你一條狗 往左兩個pixel還是三個pixel 同時這時對面的槍 10/25 15:48
win4104: 兵是往前一步 往後一步 打針呢 還是上醫療挺呢 10/25 15:48
win4104: 這個變數多到近乎無窮 怎麼可能不簡化評價來分析 10/25 15:49
win4104: Deepmind 用原本星海的評分系統下去做 結果AI只會採礦 10/25 15:49
arrenwu: @win4104 你講的這些 就是打算讓AI去學的東西 10/25 15:50
OrO3: win4104 現在不用評價,走到終局。 Min-Max演算法才需要評價 10/25 15:50
OrO3: 公式。 10/25 15:50
win4104: 連對面兵打過來了也不管 就只管採礦 因為採礦在那個評價 10/25 15:50
win4104: 機制裡得到最快最高的分數 可是只採礦根本打不贏賽局 10/25 15:50
arrenwu: 你講的問題就只是objective function 有問題而已 10/25 15:51
win4104: 現在Deepmind就是連讓他嘗試做其他事情也沒辦法 10/25 15:51
win4104: 因為 根本不知道什麼是好的 10/25 15:51
arrenwu: 所以現在可能要先用 Imitation Learning 學到像個銅牌 10/25 15:51
arrenwu: 不過樣本數不知道夠不夠多就是 10/25 15:52
OrO3: 我記得Alpha GO 用蒙地卡羅就已經只靠輸/贏去分析了,怎麼在 10/25 15:52
OrO3: 星海又走回頭路了? 10/25 15:52
arrenwu: 以deepmind現在的情況 蒙地卡羅就只有輸而已 10/25 15:53
NoLimination: 圍棋一開始AI也不知道怎麼下好啊 玩夠多就會了 10/25 15:54
killerken: 星海可不像圍牆規則那麼單純 你要先教他怎樣才會贏 10/25 15:54
win4104: 連優勢 跟贏的概念都沒辦法灌輸給他 10/25 15:55
win4104: 甭提開始學習贏 10/25 15:55
killerken: 五隻狗在坦克前面跳恰恰是不會贏的 10/25 15:55
arrenwu: 輸贏的概念可以啦 就是建築物有沒有被拆光而已XD 10/25 15:55
win4104: 從人類觀點來看 優劣勢 勝局敗局都很難分析了 10/25 15:55
OrO3: 星海應該還是有輸贏的吧?例如把對方全滅之類的? 10/25 15:55
win4104: 星海系統上的勝敗是一方建築全清 10/25 15:56
win4104: 可是正常賽局早在這點前就已經分勝負了 10/25 15:56
win4104: 真的把建築打完的正賽 一千場不知道有沒有一場 10/25 15:56
arrenwu: 這還是不影響終局啊 只是多花多少時間而已 10/25 15:57
killerken: 你教它把建築拆掉 於是五隻工兵往前出發 10/25 15:57
OrO3: 圍棋基本上也是這樣啦。只是有的人不知道自己輸了,或是在賭 10/25 15:57
win4104: 星海的選擇枝近乎無窮 沒有辦法指導AI學會 優勢概念 10/25 15:57
OrO3: 對方失誤。 10/25 15:57
arrenwu: 沒有辦法讓AI學會是人類的問題 不是AI的問題XD 10/25 15:58
win4104: 要單用大量演算讓他學到會 大概要用量子電腦吧 10/25 15:58
enjoytbook: 我覺得星海資料量不會大多少吧 10/25 15:58
arrenwu: 這部分是AlphaGo的knowhow: 怎麼減少不必要的分支? 10/25 15:58
win4104: 圍棋每一步可可能性就那幾個點 10/25 15:58
StephenChou: 虛空之遺的遊戲節奏 因為晶礦重新設計 比蟲心快很多 10/25 15:59
NoLimination: 圍棋也是啊 多玩幾場就知道什麼程度無法挽回該投降 10/25 15:59
NoLimination: 了 10/25 15:59
enjoytbook: 圍棋一開始也是灌棋譜阿 10/25 15:59
win4104: 星海每一步的可能性 圈幾隻兵 走幾pixel 產什麼 10/25 15:59
win4104: 甚至不做事 10/25 15:59
OrO3: 我怎麼覺得推文裡好像很多人沒看過AlphaGO比較深入的文章啊? 10/25 15:59
seaEPC: 彷彿看到去年alphago初出江湖時的各種推文 10/25 15:59
win4104: 那個分析量我不覺的在一個量級上 10/25 15:59
StephenChou: 地圖跟單位設計也有影響 以前有Z用百生獸拖了3小時.. 10/25 15:59
StephenChou: 現在虛空能拖到30分鐘就算是史詩大戰了 以前是正常 10/25 16:00
killerken: 星海和圍棋就不一樣 不然你以為人家幹嘛研究? 10/25 16:00
arrenwu: 星海當然是比較難啦 不然人家幹嘛做 10/25 16:01
k1k1832002: 人跟電腦比還有一個根本性差異是,電腦的資訊複製極 10/25 16:01
k1k1832002: 容易,人類則不行 10/25 16:01
k1k1832002: 所以百萬人累積經驗統合研究後"傳承"是一個大障礙 10/25 16:02
arrenwu: 傳承哪時候變成障礙了? 10/25 16:03
k1k1832002: 因此當AI戰勝冠軍之後,基本上就真的接近GG了,因為 10/25 16:03
arrenwu: 而且電腦跟人類比有個根本性差異是人類學得快多了 10/25 16:03
k1k1832002: 新冠軍要培養出來要靠運氣 10/25 16:03
arrenwu: 不用靠運氣啊 改版應該就可以了XD 10/25 16:03
gibbs1286: 改版就大家一起從新開始 10/25 16:05
arrenwu: 人類 transfer learning 比AI強多囉 10/25 16:07
arrenwu: AI可能改版要從頭學 人類不需要 10/25 16:09
arrenwu: 除非那個人類是低能兒 10/25 16:09
gibbs1286: 是像1到2的改版還是蟲心到虛空的改版? 10/25 16:14
win4104: 如何正確的標示出目標也是AI研究很重要的一環吧 10/25 16:17
win4104: 不然如果真的是造個機器人讓他在電腦前打星海 10/25 16:17
win4104: 叫他贏 結果他得出來的結論是讓對手無法參戰就贏了 10/25 16:18
OrO3: 不知道有沒有哪個策略遊戲,是給ai做微操,人類給戰略指示。 10/25 16:18
OrO3: 然後ai開放給人寫Script進去這樣 10/25 16:19
OrO3: 說好的策略遊戲都不策略了,最近的策略遊戲都在比微操。 10/25 16:20
killerken: 你去跟孫子說戰爭靠兵法 不用操練士兵看看 10/25 16:22
OrO3: 練兵有連長會去練,叫指揮官去練兵肯定搞錯了。 10/25 16:23
killerken: 指w揮w官w不w用w練w兵www 10/25 16:25
shinobunodok: 什麼?指揮官不用去參與或看練兵? 10/25 16:26
OrO3: 大家當兵跑三千的時候,國防部長都跟在旁邊跑嗎?太可怕了!! 10/25 16:27
hit0123: 圍棋的可能性可是比宇宙原子總量多的 說ai無法克服無窮可 10/25 16:29
hit0123: 能性的 似乎搞錯了什麼.... 10/25 16:29
kira925: 你知道RTS的可能性被評估為圍棋又再多幾十到幾百個零嗎.. 10/25 16:30
rewisyoung: 圍棋沒有戰爭迷霧 圍棋你能看到所有情報 星海有不確定 10/25 16:31
rewisyoung: 性 10/25 16:31
killerken: 你把每一個像素的移動都算進去 星海的可能性就比全宇 10/25 16:31
killerken: 宙的微粒子還要多 10/25 16:31
hit0123: 不過圍棋的基本規則的確單純多了 又是資訊完全透明的遊 10/25 16:32
hit0123: 戲 要克服星海一定比較困難得多 這是一定 10/25 16:32
win4104: 還有圍棋是回合制的... 10/25 16:33
hit0123: 基本上我也是認為不是能不能的問題 而是要花多少時間的 10/25 16:34
hit0123: 問題 10/25 16:34
hit0123: 才兩三年前吧 幾乎所有ai研究者都認為ai要在圍棋碾壓人 10/25 16:36
hit0123: 類 起碼還要十幾年 10/25 16:36
OrO3: 雖然問題不在這邊,但我還是想吐糟一下。你知道策略遊戲內部 10/25 16:36
GOBS: 我是覺得把高端場幾千局給電腦看完應該是能讓電腦知道大概怎 10/25 16:37
GOBS: 麼樣的局面叫贏 但是要練出如何走到這個局面的戰術就沒這麼 10/25 16:37
GOBS: 簡單了 10/25 16:37
OrO3: 的運作上,不是以「像素」為單位的嗎? 10/25 16:37
hit0123: 然後阿法狗就打爆大家的臉了...所以這次星海...就讓我們 10/25 16:38
hit0123: 拭目以待吧… 10/25 16:38
win4104: 阿法狗可以在圍棋上擊敗人類我不怎麼意外 10/25 16:38
win4104: 但是如果DeepMind真的能讓AI自己學會打RTS 10/25 16:39
OrO3: 拿世紀帝國一、二來當例子,「格子」的感覺很重吧?現在的 10/25 16:39
OrO3: 策略遊戲比較細緻一點,但內部運作上還是走棋格,不然連多人 10/25 16:39
OrO3: 連線一定會出問題的。 10/25 16:40
win4104: 那肯定是對全世界產業的一大衝擊 10/25 16:40
win4104: 走格子跟走像素...不就是格子大小的問題嗎 10/25 16:40
GOBS: 例如分析人口差異+礦區和資源量+建築物安全度是可以看出已定 10/25 16:40
GOBS: 勝負的局面 但是交戰瞬間的變化量可能沒辦法學那麼快 像蟲打 10/25 16:40
GOBS: 神的大後期第一波交戰後的全面數據可能只有資源存量領先 但 10/25 16:40
GOBS: 是接下來幾波就不一定了 10/25 16:40
super6602: Rts最難的是評價操作 會不會被人類欺騙 你的操作在對 10/25 16:40
win4104: 這有什麼需要特別一提的嗎 10/25 16:40
killerken: 哪有打爆什麼臉 規則單純的零和遊戲大家都知道電腦強 10/25 16:40
super6602: 方不同的狀態 該有的應對就會不同 玩圍棋這個資訊是透 10/25 16:40
super6602: 明的 rts這個資訊是未知的 甚至是假的 10/25 16:40
hit0123: 樓樓上 你在這個時間點 說你不意外ai贏 不免事後諸葛之 10/25 16:41
hit0123: 嫌呀 囧 10/25 16:41
OrO3: 是說,AI駕駛戰機已經打得贏人類飛行員了。其實戰鬥機內的環 10/25 16:42
OrO3: 境遠比星海之類的簡單多了,因為都是電子訊號..... 10/25 16:42
killerken: 阿發狗是有成熟的自主學習機制才那麼驚艷 10/25 16:42
GOBS: 嗯 資訊不對稱也是一點 電腦對與偵查這個概念有多看重會很大 10/25 16:42
GOBS: 影響進步速度 10/25 16:42
win4104: 喔 好 我事後諸葛('・ω・') 10/25 16:44
hit0123: ('・ω・') 苦逼 10/25 16:45
arrenwu: 那我用 universal approximation thm 說 AI穩贏好了 10/25 16:46
killerken: 要講打臉的話初音還更震撼呢 10/25 16:47
death0228: 都知道電腦強...vs李世石時好像不是這麼ㄧ回事~ 10/25 16:47
arrenwu: 現在 neural network 的知識已經不是啥太冷僻的東西了 10/25 16:47
super6602: Rts會抓timing 當然訓練他各種種族的timing也是沒有意 10/25 16:48
super6602: 義 根據不同timing的戰術應對才是大家好奇的 形勢判斷 10/25 16:48
super6602: 錯 出兵出錯 你手速再高都沒用 10/25 16:48
GOBS: 一些基本timing還是有差吧 例如幾分幾秒前不可能出現空軍 隱 10/25 16:51
GOBS: 形單位等等 這樣基礎防禦的應對時間就可以同整出來 10/25 16:51
killerken: 那就是腳本而不是自主學習啦 難處是要它「自己打」 10/25 16:52
GOBS: 比較高階的轉兵種或是開礦時機到是很難教 10/25 16:52
GOBS: 自己學會這點我認為電腦做的到 多看高端場rp應該都會發現通 10/25 16:53
GOBS: 則 10/25 16:53
killerken: 問題就是這個多看 圍棋可以看快速幾千萬局 星海…… 10/25 16:55
arrenwu: 「發現通則」這個人類比電腦快很多喔 10/25 16:57
hit0123: 拿初音跟阿法狗比???? 你乾脆說921地震給你超更多的震撼 10/25 16:58
hit0123: 算了... 10/25 16:58
arrenwu: 我是覺得大家還是要記得人類學習得速度目前比電腦快啊XD 10/25 17:01
OrO3: win4104,走格子跟走像素的大小差距,就是圍棋跟西洋棋的差 10/25 17:03
OrO3: 距。圍棋的格子比較多,所以讓電腦沒辦法窮舉。所以AlphaGO 10/25 17:04
OrO3: 才會用類神經網路。 10/25 17:04
super6602: 不能用人類訓練好的timing給他 而是他要自己根據大局觀 10/25 17:04
super6602: 應對 用人類戰術觀給電腦練 讓它選擇沒啥意義 人類認定 10/25 17:04
super6602: 的通則是把相同邏輯的部份抓出來的 相同戰略中途的變 10/25 17:04
super6602: 化性又無限多種 比如說xBB教士流 當對手中途轉兵 該有 10/25 17:04
super6602: 的應對?而且最重要的還是 這些資訊都不是透明的 10/25 17:04
OrO3: 現在的演算法就是已經發展出,會忽略那些不可能的發展,以及 10/25 17:05
super6602: 你不會知道是不是往前多偵查一步 就會獲得最大效益 10/25 17:05
OrO3: 像是,人工視覺那樣的技術,管你的圖片是 300萬畫素或是800 10/25 17:05
OrO3: 畫素,他都能看出是一樣的圖,來處理。 10/25 17:06
OrO3: 然後,實際上遊戲的變化並不會比圍棋複雜,但是「那些狀況可 10/25 17:08
OrO3: 以歸為同一類」卻是比較困難的問題。 10/25 17:08
OrO3: 哪一些 10/25 17:08
OrO3: 所以,拿變化的可能性來說AI做不到,已經不合理了。假設把圍 10/25 17:13
win4104: http://tinyurl.com/yb3kkplr 10/25 17:13
win4104: DeepMind是用API打的喔 10/25 17:13
OrO3: 棋的棋盤放大9倍,變成三張棋盤的寬度,ai也能運作得很好。 10/25 17:14
win4104: 及時戰略 時脈 各種操作可能性 這些當然都包括在內 10/25 17:14
win4104: 現在最大的問題是 根本沒辦法傳達贏這個概念 10/25 17:15
win4104: 選擇枝多到無法計量 這個早就知道了 沒什麼好討論的 10/25 17:15
killerken: A:圍棋變化很多 B:星海變化更多 A:變化根本不重要啦 10/25 17:19
win4104: 遊戲的變化不會比圍棋複雜這個真的不知道要從哪吐槽起了 10/25 17:19
win4104: 戰場迷霧 即時 光這兩個就已經不知道增加多少難度了 10/25 17:19
OrO3: 我一開始就講「問題不在這邊」了啊,問題本來就不是在變化數 10/25 17:20
OrO3: 上。 10/25 17:20
win4104: 那為什麼要提格子大小? 10/25 17:21
OrO3: 然後我這一篇本文早就講了AlphaGO早就幹掉變化數這個問題了 10/25 17:22
OrO3: 因為我可以從那一點發現你不懂遊戲,甚至連寫程式都不會。 10/25 17:22
JoaoWang: 一樓 FBI或成最大_家 10/25 17:22
OrO3: ^設計 10/25 17:22
win4104: AlphaGO解決的只是 圍棋 的運算需求吧 10/25 17:23
win4104: 痾...我好歹也是寫遊戲的工程師 10/25 17:23
OrO3: AlphaGO大概是發現了 1+2+....+100 可以用梯形公式去算,而 10/25 17:24
win4104: 然後也是星海玩家 鑽石蟲族 10/25 17:24
killerken: 感謝Or兄提供新簽名檔 10/25 17:25
OrO3: 不必加一百次的區別。所以發現梯形公式之後,嫌1加到1000要 10/25 17:25
OrO3: 算很久是很奇怪的事情。 10/25 17:25
win4104: 恩...所以你覺得找出梯型公式跟找出費馬的最後定理 10/25 17:27
win4104: 是同一件事嗎? 10/25 17:27
win4104: 問題本身複雜度天差地遠 10/25 17:27
win4104: 解決了A 不代表能解決B 10/25 17:27
iwinlottery: 電腦主動大招的話 差不多已經精通了吧 10/25 18:31
Darkautism: 馬的…一直鬼打牆啥… 你覺得ai有可能用窮舉法去求每 10/25 18:42
Darkautism: 個像素的組合?就算身為工程師的你只知道窮舉法也不代 10/25 18:44
Darkautism: 表google工程師也這麼笨好嗎? 10/25 18:44
Darkautism: 還有感謝簽名檔… 你不知道你才是簽名檔嗎… 原po只是 10/25 18:45
Darkautism: 表達能力稍微差點 對於ai的理解比你們要正確的多 10/25 18:45
Darkautism: ai進行這個學習的用意是找出模式… 不是要窮舉… 10/25 18:46
Darkautism: 梯形公式可以被定義為是個模式 人類很容易(幾百年? 10/25 18:49
Darkautism: )就可以歸納出來 這正是ai難以模仿人類的地方 而現在 10/25 18:49
Darkautism: 進行機器學習就是要學習模式(或者剛剛的梯形公式?) 10/25 18:49
Darkautism: ,又不是要窮舉,鬼打牆什麼像素位移… 10/25 18:49
win4104: http://tinyurl.com/y7ax6oxw 10/25 18:50
win4104: 誰要他窮舉了... 10/25 18:50
win4104: 即時非完全資訊博奕比回合制完全資訊博奕複雜 10/25 18:51
win4104: 這點有什麼問題嗎 10/25 18:51
cybermeow: 是說大家也不知道真的研究的內容 他們也不會說是把alph 10/25 18:51
cybermeow: ago那套搬來直接用 一直討論下去也不會有什麼結果 10/25 18:51
win4104: Deepmind也是用 採礦 生兵 蓋指定建築等階段性目標去訓練 10/25 18:52
win4104: 他們的AI 10/25 18:52
win4104: 找出模式的前提 完整打完一個賽局 連這個前提都辦不到 10/25 18:54
win4104: 那AI要怎麼成長? 10/25 18:55
felaray: 通常高難度的AI作弊大多是:免開迷霧/高手速/產相剋兵種 10/25 18:58
felaray: 這種AI則是就API現有提供的資訊來判斷當下該做的處置 10/25 18:58
felaray: 應該玩起來會差很多 10/25 18:58
felaray: 以Bz的暴雪英霸來說,AI似乎也導入了學習玩家的機制 10/25 18:59
felaray: 會蹲草叢、誘敵深入並圍攻之類的..不過我想AI有額外作弊 10/25 19:00
felaray: 例如開圖偵測之類的 10/25 19:00
Darkautism: 既然頻道對上了 我們就不要再鬼打牆像素與資訊降噪的 10/25 19:01
Darkautism: 問題(更何況github上有api,根本沒有這個問題) 10/25 19:03
Darkautism: 再來 行走 採礦 不就是一個一個的模式? ai由x點位移 10/25 19:04
Darkautism: 至y點? 10/25 19:04
win4104: 你的狗前面有一隻教士 教士分身在你身後 左邊有個斜坡 10/25 19:05
win4104: 你的狗要往前走 往後走 上去咬 還是停著不動 10/25 19:05
win4104: 哪個損失最少? 10/25 19:05
win4104: 或是根本不要管 把資源拿去營運 10/25 19:06
Darkautism: 我得承認ai在初期對於模式的尋找可能會很困難 但啊法 10/25 19:06
win4104: 無數這種小決斷構成整場賽局 我不覺的複雜度可以排除在 10/25 19:06
win4104: 討論之外 10/25 19:06
win4104: 初期找不到成長的方向 讓進化進入死胡同 研究根本就進行 10/25 19:07
win4104: 不下去 10/25 19:07
win4104: 最新看到的DeepMind星海AI現況就是連門都不出 一直在採礦 10/25 19:07
Darkautism: 你為什麼認為模式只能在終結點判定? 10/25 19:07
win4104: 因為採礦的分數評價高 10/25 19:07
win4104: 模式也有分有用的沒用的 10/25 19:08
Darkautism: 模式中途就可以決定了,你在小範圍就能決定模式 10/25 19:08
Darkautism: 你在中途就能學習如何行走和探索這些模式好嗎? 10/25 19:09
Darkautism: 這就跟你寫Code分function一樣直覺好嗎? 10/25 19:09
Darkautism: AI並非輸贏才能學習模式,AI做得不好就是參數沒調整好 10/25 19:10
Darkautism: 你可以談論星海不能像圍棋一樣加速學習太慢,但這跟 10/25 19:11
Darkautism: 資訊是不是無限,資訊是否有noise根本沒關係 10/25 19:11
win4104: 所以他學習了個無關乎勝敗的模式有意義嗎 10/25 19:11
win4104: 目標是要贏 他學的模式必須要增加勝率 10/25 19:11
Darkautism: 人類平常下決定也是在近乎無限可能的情況下下決定 10/25 19:12
win4104: 但是無法評價選擇跟勝率的關連 不就是問題所在 10/25 19:12
Darkautism: 這種事情本來就不會收斂,類神經網路就是嘗試讓AI學習 10/25 19:12
win4104: 人類已經具備了大量的經驗模式 跟一無所知的AI不一樣 10/25 19:12
Darkautism: 最終結果不會收斂的任務,這樣說,OK? 10/25 19:12
Darkautism: 所以類神經網路論文中有說,由於結果不會收斂,他們 10/25 19:13
Darkautism: 計算結果是無窮大,會越算越慢,用舊的random去算不行 10/25 19:14
Darkautism: 所以後來有篇論文提到如何剪枝,不要使用完全隨機數 10/25 19:14
Darkautism: 之後AI的發展才有進展,你一直說組合無窮(不收斂) 10/25 19:14
Darkautism: 就是在鬼打牆你知道嗎? 因為類神經網路本來就是嘗試 10/25 19:15
Darkautism: 解決這個問題 10/25 19:15
win4104: 你覺得複雜度不影響演算效率嗎? 人類的電腦演算速度有高 10/25 19:15
win4104: 道可以無視問題複雜度嗎? 10/25 19:15
Darkautism: 所以才會"故意"去找圍棋、遊戲這種很難收斂的 10/25 19:16
Darkautism: 去run,有窮的東西有甚麼好算的?暴力算下去就結束了 10/25 19:16
Darkautism: ... 我們真的在同頻道嗎?我以為降噪論完我們能對頻率 10/25 19:17
win4104: 所以現在星海卡關了不是嗎 10/25 19:17
Darkautism: "不能收斂"的題目是前提... 不然有甚麼好算的? 10/25 19:18
Darkautism: 不能收斂(用你的話就是無窮、複雜度很高)的題目是前提 10/25 19:18
Darkautism: 這樣說懂了嗎? 有窮題有甚麼好算的? 10/25 19:19
Darkautism: 你跟我說說讓AI去計算有窮題有甚麼意義? 10/25 19:19
win4104: 問題不是複雜度 是AI無法評價選擇的價值 10/25 19:19
Darkautism: 讓AI去計算1+到100億有甚麼意義? 10/25 19:19
win4104: 複雜度只是回應 圍棋跟星海複雜度沒有差異 10/25 19:19
win4104: "現在最大的問題是 根本沒辦法傳達贏這個概念" 10/25 19:20
win4104: "選擇枝多到無法計量 這個早就知道了 沒什麼好討論的" 10/25 19:20
Darkautism: """用AI嘗試在不收斂的題目中尋找模式""" 10/25 19:21
win4104: 這兩句我不是早就講了? 10/25 19:21
Darkautism: 你一直攻擊研究者要做的題目,這樣有啥好討論的? 10/25 19:21
win4104: 我攻擊了什麼了? 10/25 19:22
Darkautism: 選擇枝多到無法計量 -> 這個就是不收斂 你同意吧? 10/25 19:23
Darkautism: 類神經的意義就是在這樣的題目中尋找模式(並非必勝法) 10/25 19:24
Darkautism: 所以你說它算不完,我同意啊,但幹嘛要算完? 10/25 19:24
win4104: 我同意 我用這句話回答星海比圍棋複雜 你同意嗎 10/25 19:24
Darkautism: 人類會把每個工兵的位移可能算進去嗎? 10/25 19:25
win4104: 我沒要他算完 但是複雜度影響效率 10/25 19:25
Darkautism: 所以,現在AI要學的不是算完,是學習行為模式 10/25 19:25
Darkautism: 移動工兵 + 礦點 -> 採礦 就這麼簡單 10/25 19:26
win4104: 恩... 你有玩星海嗎? 10/25 19:27
Darkautism: 其他兵種以此類推,並學習兵種的作戰模式和範圍 10/25 19:27
win4104: 不是挑釁 是認真的問問 10/25 19:27
Darkautism: 這就是AI的行為 10/25 19:28
Darkautism: 你是不是想跟我說,工兵點上去就會自動採了? 10/25 19:28
Darkautism: 我玩過,我舉這個例子不是要探討工兵如何採礦 10/25 19:29
win4104: 不是 是兵種的站位 走位對戰局有非常大的影響 10/25 19:29
Darkautism: 是嘗試在歸納模式(以人類的角度) 10/25 19:29
win4104: 不是選兵種 點目標 這麼單純的事 10/25 19:29
Darkautism: 對,這個就是模式,AI要去學的,就是這樣 10/25 19:29
win4104: 同樣一隻狗 站在戰場上的不同位置 代表的意義不一樣 10/25 19:30
Darkautism: 護甲剋性、輕重甲、對這些進行歸類,就是要去學習的 10/25 19:30
win4104: 然後8/25的新聞指出 目前Deepmind採取兩種賽局模式去訓練 10/25 19:31
win4104: 他們的AI 10/25 19:31
Darkautism: 這個實驗在學習的就是這個,就這麼簡單 10/25 19:31
win4104: 一個是 只輸入 贏 這個目標 10/25 19:31
Darkautism: 跟無窮部無窮一點關係都沒有,圍棋現在的電腦也是無 10/25 19:31
Darkautism: 法用窮舉法 10/25 19:32
Darkautism: 難道圍棋阿法狗就是用窮舉法去學嗎? 10/25 19:32
Darkautism: 當然一樣要做剪枝阿,如果演算法那麼簡單,我都可以去 10/25 19:32
win4104: 另一個是 用BZ的 分數評價讓他追求高分 10/25 19:33
Darkautism: Google上班了 10/25 19:33
win4104: 結局 一個是 AI飛基地拼和局 10/25 19:33
win4104: 另一個是 只會採礦 10/25 19:33
win4104: 兩者都贏不了最簡單的AI 甚至連正常打都算不上 10/25 19:33
Darkautism: 你說AI很難算,我不反對,我前面有說,模式難尋找 10/25 19:34
win4104: 所以你那麼在意那點幹嘛... 我不是說了 我只是回答 10/25 19:34
win4104: 星海跟圍棋複雜度一樣 這個問題嗎 10/25 19:34
Darkautism: 我要跟你說的,不收斂的題目是這樣計畫的前提 10/25 19:35
win4104: 我的答案是 星海比圍棋複雜 10/25 19:35
Darkautism: 所以題目複雜,反而是阿法狗要去拚搏的,就是這樣 10/25 19:35
win4104: 不是 星海比圍棋複雜 所以這個AI演算法算不出來 10/25 19:35
win4104: 你有看懂意思嗎 10/25 19:35
Darkautism: 你是指很複雜算不出來? 10/25 19:37
Darkautism: 這個意思? 10/25 19:37
Darkautism: 我並沒有否定它複雜,我是說他就是實驗前提啊 10/25 19:37
win4104: 你還是看不懂嗎... 我的中文有這麼差嗎 10/25 19:38
win4104: 我回答他 "星海複雜度跟圍棋一樣" 這個論述的答案 10/25 19:38
win4104: 是 "星海比圍棋複雜" 10/25 19:38
win4104: 不是 "星海比圍棋複雜 所以AI算不出來" 10/25 19:38
Darkautism: 我看不懂,比圍棋複雜? 10/25 19:39
Darkautism: O,我懂了,你是在challenge某個人的某句話 10/25 19:39
Darkautism: 這樣我當然看無,那句不是我講的=.= 10/25 19:40
win4104: 不完全資訊即時博奕 跟 完全資訊回合制博奕 哪個複雜? 10/25 19:40
win4104: 看來是結束了 ('・ω・') 10/25 19:41
Darkautism: 對,因為不是我講的,我同意你的部分 10/25 19:42
jasonchangki: 玻璃渣改個單位數據就又要重學惹,看看就好 10/25 20:54
jasonchangki: 圍棋還相對單純,星海一代patch一代神 10/25 20:54
cu2bo2: 我看完全部推文了XD 灑花~~ 10/25 21:21
kendiv: 星海搞定之後 最終就是軍事用途了.. 10/26 00:00
enjoytbook: 我不覺得星海單純在計算面上比圍棋複雜,職業選手更多 10/26 00:48
enjoytbook: 的依靠反應力和手速吧 10/26 00:48
yoyun10121: 那只代表職業選手還沒達到技術頂點, 和計算複雜度無關 10/26 01:07
hdseries: 後半看專業的討論痛快多了,果然是閃開讓專業的來 10/26 08:29
lovecutepika: 看推文看的頭都暈了,所以結論是AI可以學會星海 10/26 11:47
lovecutepika: 只是是時間上的問題這樣對嗎?菜雞發問個 10/26 11:47
lovecutepika: 反正對於判斷下一手圍棋,跟判斷士兵要往前走幾步 10/26 11:48
lovecutepika: 都是要考慮無限個選項,只是星海比圍棋複雜要學很久 10/26 11:49
lovecutepika: ('・ω・') 10/26 11:49