看板 GameDesign 關於我們 聯絡資訊
※ 引述《ddavid (謊言接線生)》之銘言: : 你先思考一下,MTG 或 RTS 做完他所謂的平衡後,遊戲有平衡了嗎? : 沒有,他們做到的平衡只到避免極少數套路屠殺為止,只要環境可以保有多種策 : 略就好,但所謂的「多種策略」事實上相對於整個遊戲的元素仍然是少數壟斷。 : 例如 MTG 的賽場上仍然是特定幾副套牌的壟斷,但只要沒有極端到只剩下一兩 : 種套牌可以存活、沒有極端到某張除了地牌以外的牌是所有套牌都得放的情況,WotC : 就不會再進一步動手封禁了。 : LoL 角色那麼多,做得到角色平衡嗎?沒有,他們的做法是輪流讓角色(特別是 : 好賣錢的新角色)出來透氣,實際上仍然有差距極大的強勢弱勢角色之分,但只要做 : 到賽場上不會只剩下唯一選擇就已經可以接受了。甚至有時還真的有超強的唯一選擇 : ,但他們還額外設置了 ban角制度來解決。 這個就是在說明目前人工平衡很爛 所以我才要討論用AI來嘗試平衡 : GTO 是不是奠基於決策展開計算的?AlphaGo 不用展開決策樹?不管是 GTO 或 : 是剝削策略都是奠基於決策展開計算出來的機率期望值,會把機率跟決策分開認為是 : 兩件事,很顯然我覺得你要對現代 AI 跟打德撲都重新了解一下。這根本就是相關的 : 事情。 GTO在打的是範圍 也就盲注翻牌轉牌河牌 算Nash均衡 決策樹不是GTO策略本身 那只是輔助人類看的視覺化工具 你決策樹展開是要展荷官手上還沒打開的那一疊牌嗎? GTO跟決策樹無關自己去了解 : 我已經說了沒人這麼做就是因為價值很低: 價值低跟好不好是兩回事 alphago出來之前也是一堆人說AI下棋沒價值 實際上就是AI出來之後屌虐人類策略 : 1. 可能遊戲根本不需要那麼平衡,甚至有的遊戲本來就是需要有一點動態的不平衡 : 變化來維持。 : 例如,LoL 的新英雄強勢期。 : 2. 你在做決策訓練的過程中,事實上大多數情況可以同時處理到平衡問題。 : 例如,圍棋 AI 從頭到尾都只是訓練最佳化下棋的策略,但藉由其結果,卻也同 : 時得到人類對局確實以黑貼六目半是當前最平衡的選擇(雖然白略優)。 : 因為以上兩個主要理由,幾乎足以涵蓋大多數案例,所以相對少有公司直接投資 : 在直接用 AI 做平衡上。當然學術上往這個方向做也沒什麼問題,但要做到分析平衡 : 能遠比用 2 順便處理到還成本低廉,然後該產品又非常需要這麼平衡的用例是真的 : 不多。 : 所以你要說我打模糊仗,那也可以,因為整個業界都在打這個模糊仗XD : 不過我是從根本上想質疑你所謂「找發散」這種概念啦,我很鼓勵你做個 toy : project 來展示一下所謂 找發散 => 做平衡 的因果,不然恕我想像不到你的思路 : XD。我甚至對於你「找發散」的數學模型都非常好奇,請務必指教一下。 : GA 的本質不脫上一代 AI 的搜尋方式,我是不會期待它比起深度學習有普遍性 : 的更佳表現啦。GA 最大的缺點基本還是在於並沒有嘗試整合 pattern,在學習規模 : 相同的情況下,想訓練出並儲存等量且差異性的學習結果會比深度學習 Cost 更高。 就如同我前面說的 阿法狗出來之前說AI下棋沒價值 狗出來之後人類換說不完全訊息AI不會做 撲克打下來之後人類換說AI不會繪畫音樂 最近聽到的是AI寫程式沒價值 這種話聽太多了 這個不行那個也不行話人人都會講 用什麼方式完成我都可以接受 反正人類就是做不好 我在說的只是嘗試於找到一條可以用AI做平衡的理論推演 你能提出另一個用AI做平衡的方式我也歡迎 -- DC群-AI魔法師公會(AIMageGuild) 歡迎你的加入 (請看個人資訊) 一起來聊AI的各方面包含 AI硬體 AI演算法 AI思維 AI咒語 使用AI生產 AI打牌下棋的思維 後AI時代的商業模式 都可以聊 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 131.147.158.37 (日本) ※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1685032229.A.76D.html
LayerZ: 抱歉忍不住 05/26 02:57
WJAider: 反過來說,AI 這個也可以,AI 那個也可以的話人人都會講 05/26 03:00
LayerZ: 不打算抨擊你,但是你想討論的不是平衡而是AI至上 05/26 03:02
ddavid: 講半天還是沒看到數學模型或至少 cost 分析,我還是等有 05/26 12:39
ddavid: 至少 toy project 成果再討論比較實際 05/26 12:39
ddavid: 講 AI 至上論我其實沒啥問題,問題大的地方在找解本來就 05/26 12:47
ddavid: 也是 AI,有什麼理論基礎說找平衡 AI 表現就會比較優秀, 05/26 12:47
ddavid: 也沒看到 05/26 12:47
ddavid: 特別是還提出什麼找發散,這根本與現今所有主流 AI 概念 05/26 12:49
ddavid: 都是相反的,不管找解找異質找多樣性,現今 AI 始終是用 05/26 12:49
ddavid: 收斂方式,找發散的數學模型到底長怎樣我是真的願聞其詳 05/26 12:49
ddavid: 而且講來講去居然丟一個 GA 出來,明明 GA 正是上一代 AI 05/26 12:52
ddavid: 裡面找收斂解的經典之一(不是因為它同時找多組就叫做找 05/26 12:52
ddavid: 發散了),到底怎麼冒出找發散概念的 05/26 12:52
演化式計算是在Crossover/Mutation與Selection兩大主要步驟做iteration Selection力道越強 space會越收斂 所以經常用來找收斂 這不代表演化式計算只能找收斂 把evo step加強 削弱selection力道 就能拿到發散中的space
ddavid: 要是提個 GAN 還比較有譜,雖然跟找發散還是八竿子打不在 05/26 12:54
ddavid: 一起 05/26 12:54
GAN也可以啊 要怎麼define誰是G誰是D 我也是樂意討論 把G當作平衡數值產生器可以 我當初的問題是卡在D要怎麼去評價這個G? 因此我試圖用strategy space作為評價方式 當strategy space複雜度越高越好 相當於G對D打分越高 但這就脫離GAN本身的概念是對抗 另外還要找增加space複雜度的方法
ddavid: 另外沒價值那段根本是你把話塞別人嘴裡,事實始終是做得 05/26 12:59
ddavid: 不夠強就沒價值,強了當然有價值。那要強需要什麼,有理 05/26 12:59
ddavid: 論基礎、有實作成果、有重現性。而不是隨便來個思考轉彎 05/26 12:59
ddavid: 就叫做有價值,遊戲界最不缺的就是點子。 05/26 12:59
要是沒做出實驗就沒價值 那現代科學早就停滯不前了 你去跟愛因斯坦說死前沒做出prototype所以相對論沒價值 弦論沒實驗沒價值 理論先行早就是常態 討論如何define 如何套用已經存在的技術 都討論完當然可以丟下去實驗 目前就還是在討論和設計階段 我的推導到也不是為了停在純理論 而是要找出一個可以落地的方式 誠如前面說的哪種AI我都可以 討論define出好的GAN我來訓練也很樂意 ※ 編輯: PosetMage (220.146.150.15 日本), 05/28/2023 22:18:38
wangm4a1: BZ例子重點不在平衡 而是被砍的玩家不高興 05/30 13:52
wangm4a1: 發文造成玩家不滿 可以求助AI改善語氣 05/30 13:54
ddavid: 我真的覺得你要好好重新思考一下你口中的找發散到底是什 05/31 19:09
ddavid: 麼東西…… 05/31 19:09
ddavid: GA 用於找收斂,不代表把參數反向操作就會「找發散」,說 05/31 19:17
ddavid: 到頭來你所謂找發散到底數學模型是什麼東西?你讓結果發 05/31 19:17
ddavid: 散那停止條件是什麼?你怎麼證明你所謂的發散結果比隨機 05/31 19:17
停止條件在講什麼東西 你好好重新思考一下為甚麼圍棋AI到現在ELO還是在上升中
ddavid: 更發散或更平衡?要是連個 objective function 都寫不出 05/31 19:17
ddavid: 來,那你已經是在開創非現行機器學習的新領域了,恭喜你 05/31 19:17
ddavid: 成為先驅並期待你的實作與應用 05/31 19:17
ddavid: 還拿愛因斯坦來比,理論物理學家雖然不一定做實驗證明, 05/31 19:21
ddavid: 但是會提出嚴謹的理論模型,而且根據那個模型計算的結果 05/31 19:21
ddavid: 還要能夠不違反過去所有的相關實驗結果好嗎? 05/31 19:21
WJAider: 有臉拿愛因斯坦跟自己抬槓比,相對論是論壇聊出來的? 05/31 20:33
WJAider: 先理解論壇抬槓跟論文的差距再找比喻比較好 05/31 20:35
※ 編輯: PosetMage (118.86.155.227 日本), 06/01/2023 10:04:34
ddavid: 無視停止條件,我很難相信你在做 AI 耶XD 06/02 19:11
ddavid: 你可以回去複習一下你自己提的 GA 一樣需要 Stopping Con 06/02 19:22
ddavid: ditions,不然它怎麼判斷演化足夠好可以給你結果了 06/02 19:22
ddavid: 至於 AlphaGo 為什麼還有機會持續訓練提升實力,原因也很 06/02 19:32
ddavid: 簡單,你可以先猜看看。 06/02 19:32
ddavid: 但即便是這樣,AlphaGo 還是要收斂出 李世石版、Master 06/02 19:32
ddavid: 版以及 AlphaZero 這些特定版本。理由也很淺顯易懂XD 06/02 19:32