推 tonyxfg: 把AI做成蘿莉外型應該就能贏了 10/25 15:17
推 d630200x: 說到這個我覺得給AI電腦作弊真的很靠背 10/25 15:17
→ iouhsu: 所以阿法狗到底是用什麼演算法 有沒有八卦 10/25 15:17
→ arrenwu: 現在不就已經是 AI 哪時候能贏過人類了? 10/25 15:17
→ arrenwu: AlphaGo就 Reinforcement Learning 啊 10/25 15:18
→ OrO3: 遊戲製作都教人,寫AI的時候把血量加高,就能讓玩家覺得難度 10/25 15:18
→ OrO3: 被調高了。超簡單的。 10/25 15:19
→ OrO3: 或是定時空投資源給AI,也能讓中等難度的AI變成高難度AI。 10/25 15:20
→ OrO3: 大部分沒作弊的ai都只中級左右難度,高難度都是靠那種方式弄 10/25 15:20
→ OrO3: 出來的。 10/25 15:21
推 arrenwu: 現在是希望AI學得夠快 10/25 15:22
推 shinobunodok: 拼手速的話 記得看過有影片 AI微操小狗躲坦克轟炸 10/25 15:22
推 NoLimination: 戰爭迷霧使AI無法獲得完整情報,AI不見得能做出正確 10/25 15:22
→ NoLimination: 的選擇,應該很難發生AI一面倒的戰況 10/25 15:22
→ shinobunodok: 坦克原本可以一次炸一群 現在只能炸一隻 10/25 15:22
推 win4104: 現在阿法狗團隊的瓶頸是 沒辦法把戰局優劣勢簡單實時的 10/25 15:23
→ win4104: 量化 10/25 15:23
→ arrenwu: 以DeepModel來說,問題只在於參數怎麼訓練好而已 10/25 15:23
→ win4104: 所以算再快也沒用 10/25 15:24
→ OrO3: NoLimination 那人類打人類有可能出現一面倒嗎? 如果可能的 10/25 15:24
→ arrenwu: 你如果沒辦法讓資訊變得簡單,這AI可能要訓練到天荒地老 10/25 15:24
→ win4104: ai根本不知道這步是對是錯 10/25 15:24
→ arrenwu: 比如說一個AI也許訓練10年可以贏人類 但就沒有意義 10/25 15:24
→ OrO3: 話,AI比賽時也可能出現那樣的狀況。 10/25 15:24
推 KMTisdog: 看看蘇趴AI玩遊戲的影片就知道要贏人類應該還要一段時間 10/25 15:24
→ laba5566: 樓上不要說太早 感覺之後一下就攻克惹 輕鬆被AI屌虐 10/25 15:25
推 NoLimination: 我的比較點是圍棋啦 已經一面倒了 10/25 15:26
→ kira925: 那個散狗躲坦克的有作弊讀取記憶體偵測坦克攻擊目標 10/25 15:26
→ ZMTL: 大部分的電腦遊戲AI都是像血量調高、跳錢加快之類吧,反正 10/25 15:26
→ ZMTL: 又不是要公平對戰只是要逼玩家拿出更高的技術應對 10/25 15:27
→ arrenwu: 圍棋一面倒是因為沒有隨機性啊 星海這種比較不會啦 10/25 15:27
→ OrO3: 現在訓練上的問題是「每局時間」,因為現在訓練ai還是很沒 10/25 15:27
→ arrenwu: 只是 10場贏個9場是有可能的 10/25 15:27
→ OrO3: 有效率,圍棋是因為能夠快速走棋,所以能壓縮時間。 10/25 15:28
→ gibbs1286: 那個fgo的即死... 10/25 15:28
→ OrO3: 訓練星海就.... 問題很大,看星海給不給快速跑賽事讓ai去訓 10/25 15:28
→ OrO3: 練。 10/25 15:28
推 arrenwu: 快速跑對戰我覺得應該可以吧 就差不多是時間軸調快 10/25 15:29
→ arrenwu: 跟fps遊戲開外掛是一樣的意思 10/25 15:29
→ kira925: 要做是可以 把所有遊戲時間都等比例加速... 10/25 15:30
推 NoLimination: 其實我比較想看AI打lol五打五怎麼打團戰 10/25 15:30
推 gibbs1286: 他們團隊的理想是同時多帳掛網爬天梯 10/25 15:30
→ kira925: 但是變數太多了 單純一個王蟲在某一張圖怎麼飛可能就要練 10/25 15:30
→ OrO3: 可能需要壓縮到幾秒鐘一局的速度的程度喔.... 10/25 15:31
→ kira925: 幾十個小時 而通常你有七張圖要分析.... 10/25 15:31
→ OrO3: 其實,隨機性不是問題啦.... 10/25 15:31
→ kira925: 隨機性不是問題 但是隨機性製造的分析量是大問題 10/25 15:32
推 arrenwu: 這部分應該比較像是data processing的問題了XD 10/25 15:32
→ arrenwu: 如果是使用raw data 我看AI只能玩沙了 10/25 15:32
→ kira925: 針對星海RP做數據分析的工具已經不少了 10/25 15:34
以目前的AI來說,還是有缺陷在的
以AlphaGo Zero來講
他花了40天的時間訓練後,對上 Master 能達到近 90%勝率
40天聽起來很短,但如果考慮ai的訓練速度
40天可能已經進行幾百萬,甚至上千萬次的對局
但人類一輩子所下的圍棋,可能也只有幾萬場,甚至不到萬場
https://technews.tw/2017/10/19/alphago-zero-learning-from-scratch/
如果把上面的圖片的時間軸
橫軸改成「對局數」
那應該會是慘不忍睹的狀況
所以,想用目前的ai技術,在星海那類遊戲獲勝的話
方法一:想辦法降低每一場的運行時間
方法二:提升每一局學習的效率
哪時候會突破?不知道
※ 編輯: OrO3 (125.227.87.115), 10/25/2017 15:49:11
→ kira925: 但是 針對每一個動作做分析目前無解 10/25 15:34
推 kokokko416: 紅色警戒3的AI真TM超鳥,困難敵人會自動偵測你出什麼 10/25 15:38
→ kokokko416: 兵,對方就生一堆克制兵種,舉例來說我生產一堆坦克 10/25 15:38
→ kokokko416: 準備去轟他們家,結果一進去,戰爭迷霧一開,他們整 10/25 15:38
→ kokokko416: 個基地滿滿坦克殺手,我一整個嚇尿,而且當時根本戰 10/25 15:38
→ kokokko416: 爭迷霧都沒開,他怎麼知道我要幹麻? 10/25 15:38
推 win4104: 現在卡的問題不是演算快慢 10/25 15:43
→ win4104: 而是如何即時的評價操作選擇 10/25 15:44
→ win4104: 這個演算法還是要人去想 不太可能期待AI自己解決 10/25 15:44
推 Kenqr: 不用吧 阿法狗就沒有人為評價 10/25 15:45
推 seaEPC: 體諒一下當年(現在)寫遊戲AI的人,他們可沒那個人力物力 10/25 15:46
→ seaEPC: 去寫個通用AI跟你對戰啊 10/25 15:46
推 win4104: 圍棋是回合制而且情報完整 10/25 15:46
→ win4104: 遇到同樣的型走哪一步的勝率可以從過往的棋譜裡分析 10/25 15:47
→ win4104: 你一條狗 往左兩個pixel還是三個pixel 同時這時對面的槍 10/25 15:48
→ win4104: 兵是往前一步 往後一步 打針呢 還是上醫療挺呢 10/25 15:48
→ win4104: 這個變數多到近乎無窮 怎麼可能不簡化評價來分析 10/25 15:49
→ win4104: Deepmind 用原本星海的評分系統下去做 結果AI只會採礦 10/25 15:49
推 arrenwu: @win4104 你講的這些 就是打算讓AI去學的東西 10/25 15:50
→ OrO3: win4104 現在不用評價,走到終局。 Min-Max演算法才需要評價 10/25 15:50
→ OrO3: 公式。 10/25 15:50
→ win4104: 連對面兵打過來了也不管 就只管採礦 因為採礦在那個評價 10/25 15:50
→ win4104: 機制裡得到最快最高的分數 可是只採礦根本打不贏賽局 10/25 15:50
→ arrenwu: 你講的問題就只是objective function 有問題而已 10/25 15:51
→ win4104: 現在Deepmind就是連讓他嘗試做其他事情也沒辦法 10/25 15:51
→ win4104: 因為 根本不知道什麼是好的 10/25 15:51
→ arrenwu: 所以現在可能要先用 Imitation Learning 學到像個銅牌 10/25 15:51
→ arrenwu: 不過樣本數不知道夠不夠多就是 10/25 15:52
→ OrO3: 我記得Alpha GO 用蒙地卡羅就已經只靠輸/贏去分析了,怎麼在 10/25 15:52
→ OrO3: 星海又走回頭路了? 10/25 15:52
→ arrenwu: 以deepmind現在的情況 蒙地卡羅就只有輸而已 10/25 15:53
推 NoLimination: 圍棋一開始AI也不知道怎麼下好啊 玩夠多就會了 10/25 15:54
推 killerken: 星海可不像圍牆規則那麼單純 你要先教他怎樣才會贏 10/25 15:54
推 win4104: 連優勢 跟贏的概念都沒辦法灌輸給他 10/25 15:55
→ win4104: 甭提開始學習贏 10/25 15:55
→ killerken: 五隻狗在坦克前面跳恰恰是不會贏的 10/25 15:55
推 arrenwu: 輸贏的概念可以啦 就是建築物有沒有被拆光而已XD 10/25 15:55
→ win4104: 從人類觀點來看 優劣勢 勝局敗局都很難分析了 10/25 15:55
→ OrO3: 星海應該還是有輸贏的吧?例如把對方全滅之類的? 10/25 15:55
→ win4104: 星海系統上的勝敗是一方建築全清 10/25 15:56
→ win4104: 可是正常賽局早在這點前就已經分勝負了 10/25 15:56
→ win4104: 真的把建築打完的正賽 一千場不知道有沒有一場 10/25 15:56
→ arrenwu: 這還是不影響終局啊 只是多花多少時間而已 10/25 15:57
推 killerken: 你教它把建築拆掉 於是五隻工兵往前出發 10/25 15:57
→ OrO3: 圍棋基本上也是這樣啦。只是有的人不知道自己輸了,或是在賭 10/25 15:57
→ win4104: 星海的選擇枝近乎無窮 沒有辦法指導AI學會 優勢概念 10/25 15:57
→ OrO3: 對方失誤。 10/25 15:57
→ arrenwu: 沒有辦法讓AI學會是人類的問題 不是AI的問題XD 10/25 15:58
→ win4104: 要單用大量演算讓他學到會 大概要用量子電腦吧 10/25 15:58
推 enjoytbook: 我覺得星海資料量不會大多少吧 10/25 15:58
→ arrenwu: 這部分是AlphaGo的knowhow: 怎麼減少不必要的分支? 10/25 15:58
→ win4104: 圍棋每一步可可能性就那幾個點 10/25 15:58
推 StephenChou: 虛空之遺的遊戲節奏 因為晶礦重新設計 比蟲心快很多 10/25 15:59
推 NoLimination: 圍棋也是啊 多玩幾場就知道什麼程度無法挽回該投降 10/25 15:59
→ NoLimination: 了 10/25 15:59
→ enjoytbook: 圍棋一開始也是灌棋譜阿 10/25 15:59
→ win4104: 星海每一步的可能性 圈幾隻兵 走幾pixel 產什麼 10/25 15:59
→ win4104: 甚至不做事 10/25 15:59
→ OrO3: 我怎麼覺得推文裡好像很多人沒看過AlphaGO比較深入的文章啊? 10/25 15:59
推 seaEPC: 彷彿看到去年alphago初出江湖時的各種推文 10/25 15:59
→ win4104: 那個分析量我不覺的在一個量級上 10/25 15:59
→ StephenChou: 地圖跟單位設計也有影響 以前有Z用百生獸拖了3小時.. 10/25 15:59
→ StephenChou: 現在虛空能拖到30分鐘就算是史詩大戰了 以前是正常 10/25 16:00
推 killerken: 星海和圍棋就不一樣 不然你以為人家幹嘛研究? 10/25 16:00
推 arrenwu: 星海當然是比較難啦 不然人家幹嘛做 10/25 16:01
推 k1k1832002: 人跟電腦比還有一個根本性差異是,電腦的資訊複製極 10/25 16:01
→ k1k1832002: 容易,人類則不行 10/25 16:01
→ k1k1832002: 所以百萬人累積經驗統合研究後"傳承"是一個大障礙 10/25 16:02
推 arrenwu: 傳承哪時候變成障礙了? 10/25 16:03
→ k1k1832002: 因此當AI戰勝冠軍之後,基本上就真的接近GG了,因為 10/25 16:03
→ arrenwu: 而且電腦跟人類比有個根本性差異是人類學得快多了 10/25 16:03
→ k1k1832002: 新冠軍要培養出來要靠運氣 10/25 16:03
→ arrenwu: 不用靠運氣啊 改版應該就可以了XD 10/25 16:03
→ gibbs1286: 改版就大家一起從新開始 10/25 16:05
推 arrenwu: 人類 transfer learning 比AI強多囉 10/25 16:07
推 arrenwu: AI可能改版要從頭學 人類不需要 10/25 16:09
→ arrenwu: 除非那個人類是低能兒 10/25 16:09
→ gibbs1286: 是像1到2的改版還是蟲心到虛空的改版? 10/25 16:14
推 win4104: 如何正確的標示出目標也是AI研究很重要的一環吧 10/25 16:17
→ win4104: 不然如果真的是造個機器人讓他在電腦前打星海 10/25 16:17
→ win4104: 叫他贏 結果他得出來的結論是讓對手無法參戰就贏了 10/25 16:18
→ OrO3: 不知道有沒有哪個策略遊戲,是給ai做微操,人類給戰略指示。 10/25 16:18
→ OrO3: 然後ai開放給人寫Script進去這樣 10/25 16:19
→ OrO3: 說好的策略遊戲都不策略了,最近的策略遊戲都在比微操。 10/25 16:20
推 killerken: 你去跟孫子說戰爭靠兵法 不用操練士兵看看 10/25 16:22
→ OrO3: 練兵有連長會去練,叫指揮官去練兵肯定搞錯了。 10/25 16:23
推 killerken: 指w揮w官w不w用w練w兵www 10/25 16:25
推 shinobunodok: 什麼?指揮官不用去參與或看練兵? 10/25 16:26
→ OrO3: 大家當兵跑三千的時候,國防部長都跟在旁邊跑嗎?太可怕了!! 10/25 16:27
推 hit0123: 圍棋的可能性可是比宇宙原子總量多的 說ai無法克服無窮可 10/25 16:29
→ hit0123: 能性的 似乎搞錯了什麼.... 10/25 16:29
推 kira925: 你知道RTS的可能性被評估為圍棋又再多幾十到幾百個零嗎.. 10/25 16:30
推 rewisyoung: 圍棋沒有戰爭迷霧 圍棋你能看到所有情報 星海有不確定 10/25 16:31
→ rewisyoung: 性 10/25 16:31
推 killerken: 你把每一個像素的移動都算進去 星海的可能性就比全宇 10/25 16:31
→ killerken: 宙的微粒子還要多 10/25 16:31
推 hit0123: 不過圍棋的基本規則的確單純多了 又是資訊完全透明的遊 10/25 16:32
→ hit0123: 戲 要克服星海一定比較困難得多 這是一定 10/25 16:32
推 win4104: 還有圍棋是回合制的... 10/25 16:33
推 hit0123: 基本上我也是認為不是能不能的問題 而是要花多少時間的 10/25 16:34
→ hit0123: 問題 10/25 16:34
推 hit0123: 才兩三年前吧 幾乎所有ai研究者都認為ai要在圍棋碾壓人 10/25 16:36
→ hit0123: 類 起碼還要十幾年 10/25 16:36
→ OrO3: 雖然問題不在這邊,但我還是想吐糟一下。你知道策略遊戲內部 10/25 16:36
推 GOBS: 我是覺得把高端場幾千局給電腦看完應該是能讓電腦知道大概怎 10/25 16:37
→ GOBS: 麼樣的局面叫贏 但是要練出如何走到這個局面的戰術就沒這麼 10/25 16:37
→ GOBS: 簡單了 10/25 16:37
→ OrO3: 的運作上,不是以「像素」為單位的嗎? 10/25 16:37
→ hit0123: 然後阿法狗就打爆大家的臉了...所以這次星海...就讓我們 10/25 16:38
→ hit0123: 拭目以待吧… 10/25 16:38
推 win4104: 阿法狗可以在圍棋上擊敗人類我不怎麼意外 10/25 16:38
→ win4104: 但是如果DeepMind真的能讓AI自己學會打RTS 10/25 16:39
→ OrO3: 拿世紀帝國一、二來當例子,「格子」的感覺很重吧?現在的 10/25 16:39
→ OrO3: 策略遊戲比較細緻一點,但內部運作上還是走棋格,不然連多人 10/25 16:39
→ OrO3: 連線一定會出問題的。 10/25 16:40
→ win4104: 那肯定是對全世界產業的一大衝擊 10/25 16:40
→ win4104: 走格子跟走像素...不就是格子大小的問題嗎 10/25 16:40
→ GOBS: 例如分析人口差異+礦區和資源量+建築物安全度是可以看出已定 10/25 16:40
→ GOBS: 勝負的局面 但是交戰瞬間的變化量可能沒辦法學那麼快 像蟲打 10/25 16:40
→ GOBS: 神的大後期第一波交戰後的全面數據可能只有資源存量領先 但 10/25 16:40
→ GOBS: 是接下來幾波就不一定了 10/25 16:40
推 super6602: Rts最難的是評價操作 會不會被人類欺騙 你的操作在對 10/25 16:40
→ win4104: 這有什麼需要特別一提的嗎 10/25 16:40
推 killerken: 哪有打爆什麼臉 規則單純的零和遊戲大家都知道電腦強 10/25 16:40
→ super6602: 方不同的狀態 該有的應對就會不同 玩圍棋這個資訊是透 10/25 16:40
→ super6602: 明的 rts這個資訊是未知的 甚至是假的 10/25 16:40
推 hit0123: 樓樓上 你在這個時間點 說你不意外ai贏 不免事後諸葛之 10/25 16:41
→ hit0123: 嫌呀 囧 10/25 16:41
→ OrO3: 是說,AI駕駛戰機已經打得贏人類飛行員了。其實戰鬥機內的環 10/25 16:42
→ OrO3: 境遠比星海之類的簡單多了,因為都是電子訊號..... 10/25 16:42
推 killerken: 阿發狗是有成熟的自主學習機制才那麼驚艷 10/25 16:42
→ GOBS: 嗯 資訊不對稱也是一點 電腦對與偵查這個概念有多看重會很大 10/25 16:42
→ GOBS: 影響進步速度 10/25 16:42
推 win4104: 喔 好 我事後諸葛('・ω・') 10/25 16:44
推 hit0123: ('・ω・') 苦逼 10/25 16:45
推 arrenwu: 那我用 universal approximation thm 說 AI穩贏好了 10/25 16:46
推 killerken: 要講打臉的話初音還更震撼呢 10/25 16:47
推 death0228: 都知道電腦強...vs李世石時好像不是這麼ㄧ回事~ 10/25 16:47
→ arrenwu: 現在 neural network 的知識已經不是啥太冷僻的東西了 10/25 16:47
→ super6602: Rts會抓timing 當然訓練他各種種族的timing也是沒有意 10/25 16:48
→ super6602: 義 根據不同timing的戰術應對才是大家好奇的 形勢判斷 10/25 16:48
→ super6602: 錯 出兵出錯 你手速再高都沒用 10/25 16:48
推 GOBS: 一些基本timing還是有差吧 例如幾分幾秒前不可能出現空軍 隱 10/25 16:51
→ GOBS: 形單位等等 這樣基礎防禦的應對時間就可以同整出來 10/25 16:51
推 killerken: 那就是腳本而不是自主學習啦 難處是要它「自己打」 10/25 16:52
→ GOBS: 比較高階的轉兵種或是開礦時機到是很難教 10/25 16:52
→ GOBS: 自己學會這點我認為電腦做的到 多看高端場rp應該都會發現通 10/25 16:53
→ GOBS: 則 10/25 16:53
推 killerken: 問題就是這個多看 圍棋可以看快速幾千萬局 星海…… 10/25 16:55
推 arrenwu: 「發現通則」這個人類比電腦快很多喔 10/25 16:57
推 hit0123: 拿初音跟阿法狗比???? 你乾脆說921地震給你超更多的震撼 10/25 16:58
→ hit0123: 算了... 10/25 16:58
推 arrenwu: 我是覺得大家還是要記得人類學習得速度目前比電腦快啊XD 10/25 17:01
→ OrO3: win4104,走格子跟走像素的大小差距,就是圍棋跟西洋棋的差 10/25 17:03
→ OrO3: 距。圍棋的格子比較多,所以讓電腦沒辦法窮舉。所以AlphaGO 10/25 17:04
→ OrO3: 才會用類神經網路。 10/25 17:04
→ super6602: 不能用人類訓練好的timing給他 而是他要自己根據大局觀 10/25 17:04
→ super6602: 應對 用人類戰術觀給電腦練 讓它選擇沒啥意義 人類認定 10/25 17:04
→ super6602: 的通則是把相同邏輯的部份抓出來的 相同戰略中途的變 10/25 17:04
→ super6602: 化性又無限多種 比如說xBB教士流 當對手中途轉兵 該有 10/25 17:04
→ super6602: 的應對?而且最重要的還是 這些資訊都不是透明的 10/25 17:04
→ OrO3: 現在的演算法就是已經發展出,會忽略那些不可能的發展,以及 10/25 17:05
→ super6602: 你不會知道是不是往前多偵查一步 就會獲得最大效益 10/25 17:05
→ OrO3: 像是,人工視覺那樣的技術,管你的圖片是 300萬畫素或是800 10/25 17:05
→ OrO3: 畫素,他都能看出是一樣的圖,來處理。 10/25 17:06
→ OrO3: 然後,實際上遊戲的變化並不會比圍棋複雜,但是「那些狀況可 10/25 17:08
→ OrO3: 以歸為同一類」卻是比較困難的問題。 10/25 17:08
→ OrO3: 哪一些 10/25 17:08
→ OrO3: 所以,拿變化的可能性來說AI做不到,已經不合理了。假設把圍 10/25 17:13
→ win4104: DeepMind是用API打的喔 10/25 17:13
→ OrO3: 棋的棋盤放大9倍,變成三張棋盤的寬度,ai也能運作得很好。 10/25 17:14
→ win4104: 及時戰略 時脈 各種操作可能性 這些當然都包括在內 10/25 17:14
→ win4104: 現在最大的問題是 根本沒辦法傳達贏這個概念 10/25 17:15
→ win4104: 選擇枝多到無法計量 這個早就知道了 沒什麼好討論的 10/25 17:15
推 killerken: A:圍棋變化很多 B:星海變化更多 A:變化根本不重要啦 10/25 17:19
推 win4104: 遊戲的變化不會比圍棋複雜這個真的不知道要從哪吐槽起了 10/25 17:19
→ win4104: 戰場迷霧 即時 光這兩個就已經不知道增加多少難度了 10/25 17:19
→ OrO3: 我一開始就講「問題不在這邊」了啊,問題本來就不是在變化數 10/25 17:20
→ OrO3: 上。 10/25 17:20
推 win4104: 那為什麼要提格子大小? 10/25 17:21
→ OrO3: 然後我這一篇本文早就講了AlphaGO早就幹掉變化數這個問題了 10/25 17:22
→ OrO3: 因為我可以從那一點發現你不懂遊戲,甚至連寫程式都不會。 10/25 17:22
推 JoaoWang: 一樓 FBI或成最大_家 10/25 17:22
→ OrO3: ^設計 10/25 17:22
→ win4104: AlphaGO解決的只是 圍棋 的運算需求吧 10/25 17:23
→ win4104: 痾...我好歹也是寫遊戲的工程師 10/25 17:23
→ OrO3: AlphaGO大概是發現了 1+2+....+100 可以用梯形公式去算,而 10/25 17:24
→ win4104: 然後也是星海玩家 鑽石蟲族 10/25 17:24
推 killerken: 感謝Or兄提供新簽名檔 10/25 17:25
→ OrO3: 不必加一百次的區別。所以發現梯形公式之後,嫌1加到1000要 10/25 17:25
→ OrO3: 算很久是很奇怪的事情。 10/25 17:25
推 win4104: 恩...所以你覺得找出梯型公式跟找出費馬的最後定理 10/25 17:27
→ win4104: 是同一件事嗎? 10/25 17:27
→ win4104: 問題本身複雜度天差地遠 10/25 17:27
→ win4104: 解決了A 不代表能解決B 10/25 17:27
推 iwinlottery: 電腦主動大招的話 差不多已經精通了吧 10/25 18:31
推 Darkautism: 馬的…一直鬼打牆啥… 你覺得ai有可能用窮舉法去求每 10/25 18:42
→ Darkautism: 個像素的組合?就算身為工程師的你只知道窮舉法也不代 10/25 18:44
→ Darkautism: 表google工程師也這麼笨好嗎? 10/25 18:44
→ Darkautism: 還有感謝簽名檔… 你不知道你才是簽名檔嗎… 原po只是 10/25 18:45
→ Darkautism: 表達能力稍微差點 對於ai的理解比你們要正確的多 10/25 18:45
→ Darkautism: ai進行這個學習的用意是找出模式… 不是要窮舉… 10/25 18:46
→ Darkautism: 梯形公式可以被定義為是個模式 人類很容易(幾百年? 10/25 18:49
→ Darkautism: )就可以歸納出來 這正是ai難以模仿人類的地方 而現在 10/25 18:49
→ Darkautism: 進行機器學習就是要學習模式(或者剛剛的梯形公式?) 10/25 18:49
→ Darkautism: ,又不是要窮舉,鬼打牆什麼像素位移… 10/25 18:49
→ win4104: 誰要他窮舉了... 10/25 18:50
→ win4104: 即時非完全資訊博奕比回合制完全資訊博奕複雜 10/25 18:51
→ win4104: 這點有什麼問題嗎 10/25 18:51
推 cybermeow: 是說大家也不知道真的研究的內容 他們也不會說是把alph 10/25 18:51
→ cybermeow: ago那套搬來直接用 一直討論下去也不會有什麼結果 10/25 18:51
→ win4104: Deepmind也是用 採礦 生兵 蓋指定建築等階段性目標去訓練 10/25 18:52
→ win4104: 他們的AI 10/25 18:52
推 win4104: 找出模式的前提 完整打完一個賽局 連這個前提都辦不到 10/25 18:54
→ win4104: 那AI要怎麼成長? 10/25 18:55
推 felaray: 通常高難度的AI作弊大多是:免開迷霧/高手速/產相剋兵種 10/25 18:58
→ felaray: 這種AI則是就API現有提供的資訊來判斷當下該做的處置 10/25 18:58
→ felaray: 應該玩起來會差很多 10/25 18:58
→ felaray: 以Bz的暴雪英霸來說,AI似乎也導入了學習玩家的機制 10/25 18:59
→ felaray: 會蹲草叢、誘敵深入並圍攻之類的..不過我想AI有額外作弊 10/25 19:00
→ felaray: 例如開圖偵測之類的 10/25 19:00
推 Darkautism: 既然頻道對上了 我們就不要再鬼打牆像素與資訊降噪的 10/25 19:01
→ Darkautism: 問題(更何況github上有api,根本沒有這個問題) 10/25 19:03
→ Darkautism: 再來 行走 採礦 不就是一個一個的模式? ai由x點位移 10/25 19:04
→ Darkautism: 至y點? 10/25 19:04
推 win4104: 你的狗前面有一隻教士 教士分身在你身後 左邊有個斜坡 10/25 19:05
→ win4104: 你的狗要往前走 往後走 上去咬 還是停著不動 10/25 19:05
→ win4104: 哪個損失最少? 10/25 19:05
→ win4104: 或是根本不要管 把資源拿去營運 10/25 19:06
→ Darkautism: 我得承認ai在初期對於模式的尋找可能會很困難 但啊法 10/25 19:06
→ win4104: 無數這種小決斷構成整場賽局 我不覺的複雜度可以排除在 10/25 19:06
→ win4104: 討論之外 10/25 19:06
→ win4104: 初期找不到成長的方向 讓進化進入死胡同 研究根本就進行 10/25 19:07
→ win4104: 不下去 10/25 19:07
→ win4104: 最新看到的DeepMind星海AI現況就是連門都不出 一直在採礦 10/25 19:07
推 Darkautism: 你為什麼認為模式只能在終結點判定? 10/25 19:07
→ win4104: 因為採礦的分數評價高 10/25 19:07
→ win4104: 模式也有分有用的沒用的 10/25 19:08
→ Darkautism: 模式中途就可以決定了,你在小範圍就能決定模式 10/25 19:08
→ Darkautism: 你在中途就能學習如何行走和探索這些模式好嗎? 10/25 19:09
→ Darkautism: 這就跟你寫Code分function一樣直覺好嗎? 10/25 19:09
→ Darkautism: AI並非輸贏才能學習模式,AI做得不好就是參數沒調整好 10/25 19:10
→ Darkautism: 你可以談論星海不能像圍棋一樣加速學習太慢,但這跟 10/25 19:11
→ Darkautism: 資訊是不是無限,資訊是否有noise根本沒關係 10/25 19:11
推 win4104: 所以他學習了個無關乎勝敗的模式有意義嗎 10/25 19:11
→ win4104: 目標是要贏 他學的模式必須要增加勝率 10/25 19:11
→ Darkautism: 人類平常下決定也是在近乎無限可能的情況下下決定 10/25 19:12
→ win4104: 但是無法評價選擇跟勝率的關連 不就是問題所在 10/25 19:12
→ Darkautism: 這種事情本來就不會收斂,類神經網路就是嘗試讓AI學習 10/25 19:12
→ win4104: 人類已經具備了大量的經驗模式 跟一無所知的AI不一樣 10/25 19:12
→ Darkautism: 最終結果不會收斂的任務,這樣說,OK? 10/25 19:12
→ Darkautism: 所以類神經網路論文中有說,由於結果不會收斂,他們 10/25 19:13
→ Darkautism: 計算結果是無窮大,會越算越慢,用舊的random去算不行 10/25 19:14
→ Darkautism: 所以後來有篇論文提到如何剪枝,不要使用完全隨機數 10/25 19:14
→ Darkautism: 之後AI的發展才有進展,你一直說組合無窮(不收斂) 10/25 19:14
→ Darkautism: 就是在鬼打牆你知道嗎? 因為類神經網路本來就是嘗試 10/25 19:15
→ Darkautism: 解決這個問題 10/25 19:15
推 win4104: 你覺得複雜度不影響演算效率嗎? 人類的電腦演算速度有高 10/25 19:15
→ win4104: 道可以無視問題複雜度嗎? 10/25 19:15
→ Darkautism: 所以才會"故意"去找圍棋、遊戲這種很難收斂的 10/25 19:16
→ Darkautism: 去run,有窮的東西有甚麼好算的?暴力算下去就結束了 10/25 19:16
→ Darkautism: ... 我們真的在同頻道嗎?我以為降噪論完我們能對頻率 10/25 19:17
推 win4104: 所以現在星海卡關了不是嗎 10/25 19:17
→ Darkautism: "不能收斂"的題目是前提... 不然有甚麼好算的? 10/25 19:18
→ Darkautism: 不能收斂(用你的話就是無窮、複雜度很高)的題目是前提 10/25 19:18
→ Darkautism: 這樣說懂了嗎? 有窮題有甚麼好算的? 10/25 19:19
→ Darkautism: 你跟我說說讓AI去計算有窮題有甚麼意義? 10/25 19:19
→ win4104: 問題不是複雜度 是AI無法評價選擇的價值 10/25 19:19
→ Darkautism: 讓AI去計算1+到100億有甚麼意義? 10/25 19:19
→ win4104: 複雜度只是回應 圍棋跟星海複雜度沒有差異 10/25 19:19
→ win4104: "現在最大的問題是 根本沒辦法傳達贏這個概念" 10/25 19:20
→ win4104: "選擇枝多到無法計量 這個早就知道了 沒什麼好討論的" 10/25 19:20
→ Darkautism: """用AI嘗試在不收斂的題目中尋找模式""" 10/25 19:21
→ win4104: 這兩句我不是早就講了? 10/25 19:21
→ Darkautism: 你一直攻擊研究者要做的題目,這樣有啥好討論的? 10/25 19:21
→ win4104: 我攻擊了什麼了? 10/25 19:22
推 Darkautism: 選擇枝多到無法計量 -> 這個就是不收斂 你同意吧? 10/25 19:23
→ Darkautism: 類神經的意義就是在這樣的題目中尋找模式(並非必勝法) 10/25 19:24
→ Darkautism: 所以你說它算不完,我同意啊,但幹嘛要算完? 10/25 19:24
推 win4104: 我同意 我用這句話回答星海比圍棋複雜 你同意嗎 10/25 19:24
→ Darkautism: 人類會把每個工兵的位移可能算進去嗎? 10/25 19:25
→ win4104: 我沒要他算完 但是複雜度影響效率 10/25 19:25
→ Darkautism: 所以,現在AI要學的不是算完,是學習行為模式 10/25 19:25
→ Darkautism: 移動工兵 + 礦點 -> 採礦 就這麼簡單 10/25 19:26
推 win4104: 恩... 你有玩星海嗎? 10/25 19:27
→ Darkautism: 其他兵種以此類推,並學習兵種的作戰模式和範圍 10/25 19:27
→ win4104: 不是挑釁 是認真的問問 10/25 19:27
→ Darkautism: 這就是AI的行為 10/25 19:28
→ Darkautism: 你是不是想跟我說,工兵點上去就會自動採了? 10/25 19:28
→ Darkautism: 我玩過,我舉這個例子不是要探討工兵如何採礦 10/25 19:29
→ win4104: 不是 是兵種的站位 走位對戰局有非常大的影響 10/25 19:29
→ Darkautism: 是嘗試在歸納模式(以人類的角度) 10/25 19:29
→ win4104: 不是選兵種 點目標 這麼單純的事 10/25 19:29
→ Darkautism: 對,這個就是模式,AI要去學的,就是這樣 10/25 19:29
→ win4104: 同樣一隻狗 站在戰場上的不同位置 代表的意義不一樣 10/25 19:30
→ Darkautism: 護甲剋性、輕重甲、對這些進行歸類,就是要去學習的 10/25 19:30
→ win4104: 然後8/25的新聞指出 目前Deepmind採取兩種賽局模式去訓練 10/25 19:31
→ win4104: 他們的AI 10/25 19:31
→ Darkautism: 這個實驗在學習的就是這個,就這麼簡單 10/25 19:31
→ win4104: 一個是 只輸入 贏 這個目標 10/25 19:31
→ Darkautism: 跟無窮部無窮一點關係都沒有,圍棋現在的電腦也是無 10/25 19:31
→ Darkautism: 法用窮舉法 10/25 19:32
→ Darkautism: 難道圍棋阿法狗就是用窮舉法去學嗎? 10/25 19:32
→ Darkautism: 當然一樣要做剪枝阿,如果演算法那麼簡單,我都可以去 10/25 19:32
→ win4104: 另一個是 用BZ的 分數評價讓他追求高分 10/25 19:33
→ Darkautism: Google上班了 10/25 19:33
→ win4104: 結局 一個是 AI飛基地拼和局 10/25 19:33
→ win4104: 另一個是 只會採礦 10/25 19:33
→ win4104: 兩者都贏不了最簡單的AI 甚至連正常打都算不上 10/25 19:33
→ Darkautism: 你說AI很難算,我不反對,我前面有說,模式難尋找 10/25 19:34
→ win4104: 所以你那麼在意那點幹嘛... 我不是說了 我只是回答 10/25 19:34
→ win4104: 星海跟圍棋複雜度一樣 這個問題嗎 10/25 19:34
→ Darkautism: 我要跟你說的,不收斂的題目是這樣計畫的前提 10/25 19:35
→ win4104: 我的答案是 星海比圍棋複雜 10/25 19:35
→ Darkautism: 所以題目複雜,反而是阿法狗要去拚搏的,就是這樣 10/25 19:35
→ win4104: 不是 星海比圍棋複雜 所以這個AI演算法算不出來 10/25 19:35
→ win4104: 你有看懂意思嗎 10/25 19:35
→ Darkautism: 你是指很複雜算不出來? 10/25 19:37
→ Darkautism: 這個意思? 10/25 19:37
→ Darkautism: 我並沒有否定它複雜,我是說他就是實驗前提啊 10/25 19:37
推 win4104: 你還是看不懂嗎... 我的中文有這麼差嗎 10/25 19:38
→ win4104: 我回答他 "星海複雜度跟圍棋一樣" 這個論述的答案 10/25 19:38
→ win4104: 是 "星海比圍棋複雜" 10/25 19:38
→ win4104: 不是 "星海比圍棋複雜 所以AI算不出來" 10/25 19:38
→ Darkautism: 我看不懂,比圍棋複雜? 10/25 19:39
→ Darkautism: O,我懂了,你是在challenge某個人的某句話 10/25 19:39
→ Darkautism: 這樣我當然看無,那句不是我講的=.= 10/25 19:40
→ win4104: 不完全資訊即時博奕 跟 完全資訊回合制博奕 哪個複雜? 10/25 19:40
→ win4104: 看來是結束了 ('・ω・') 10/25 19:41
推 Darkautism: 對,因為不是我講的,我同意你的部分 10/25 19:42
推 jasonchangki: 玻璃渣改個單位數據就又要重學惹,看看就好 10/25 20:54
→ jasonchangki: 圍棋還相對單純,星海一代patch一代神 10/25 20:54
推 cu2bo2: 我看完全部推文了XD 灑花~~ 10/25 21:21
推 kendiv: 星海搞定之後 最終就是軍事用途了.. 10/26 00:00
推 enjoytbook: 我不覺得星海單純在計算面上比圍棋複雜,職業選手更多 10/26 00:48
→ enjoytbook: 的依靠反應力和手速吧 10/26 00:48
→ yoyun10121: 那只代表職業選手還沒達到技術頂點, 和計算複雜度無關 10/26 01:07
推 hdseries: 後半看專業的討論痛快多了,果然是閃開讓專業的來 10/26 08:29
→ lovecutepika: 看推文看的頭都暈了,所以結論是AI可以學會星海 10/26 11:47
→ lovecutepika: 只是是時間上的問題這樣對嗎?菜雞發問個 10/26 11:47
→ lovecutepika: 反正對於判斷下一手圍棋,跟判斷士兵要往前走幾步 10/26 11:48
→ lovecutepika: 都是要考慮無限個選項,只是星海比圍棋複雜要學很久 10/26 11:49
→ lovecutepika: ('・ω・') 10/26 11:49