看板 GameDesign 關於我們 聯絡資訊
※ 引述《PosetMage (AI魔法師公會長老)》之銘言: : → Mchord: generative model也是BP訓練喔 04/14 12:26 : → Mchord: 如何找得到的metric去定義strategy space才是問題 04/14 12:27 : → ddavid: 製作團隊不是比玩家難找到平衡,而是不值得花費那個成本 04/16 16:39 : → ddavid: 在處理平衡問題前,最先要理解的是當你系統有一定的複雜性 04/16 16:40 : → ddavid: 後基本上就不用考慮可以完美平衡了 04/16 16:40 : → ddavid: 因為做不到,玩家也未必需要 04/16 16:41 : 玩家未必需要那為甚麼MTG需要禁卡? : RTS不需要平衡的話 那bz在nerf甚麼? 放著就好 你先思考一下,MTG 或 RTS 做完他所謂的平衡後,遊戲有平衡了嗎? 沒有,他們做到的平衡只到避免極少數套路屠殺為止,只要環境可以保有多種策 略就好,但所謂的「多種策略」事實上相對於整個遊戲的元素仍然是少數壟斷。 例如 MTG 的賽場上仍然是特定幾副套牌的壟斷,但只要沒有極端到只剩下一兩 種套牌可以存活、沒有極端到某張除了地牌以外的牌是所有套牌都得放的情況,WotC 就不會再進一步動手封禁了。 LoL 角色那麼多,做得到角色平衡嗎?沒有,他們的做法是輪流讓角色(特別是 好賣錢的新角色)出來透氣,實際上仍然有差距極大的強勢弱勢角色之分,但只要做 到賽場上不會只剩下唯一選擇就已經可以接受了。甚至有時還真的有超強的唯一選擇 ,但他們還額外設置了 ban角制度來解決。 : → ddavid: 其他有些我以前本版老文章有聊到XD #1CGrc99x 04/16 16:41 : → ddavid: 至於你講 AI 一堆似是而非的內容,就不一一談了……XD 04/16 16:44 : 你的文章問題是沒有定義什麼是完美的平衡(也沒定義平衡) 反而在用烏賊戰術打模糊戰 : : 你的文章說玩家算不完 算不完又怎樣 用期望和機率算就好 : : 很顯然你對現代AI完全沒有概念 ex: 撲克AI、麻將AI都是在打機率而不是傳統決策展開 GTO 是不是奠基於決策展開計算的?AlphaGo 不用展開決策樹?不管是 GTO 或 是剝削策略都是奠基於決策展開計算出來的機率期望值,會把機率跟決策分開認為是 兩件事,很顯然我覺得你要對現代 AI 跟打德撲都重新了解一下。這根本就是相關的 事情。 : 我在這篇就是在定義平衡是 "AI探訪過後的Strategy Sapce" : → ddavid: 老實說類神經網路已經可以用相對便宜價格建立到一個程度時 04/16 16:46 : 現在神經網路多半是拿來找方法 ex:AI下棋 AI打星海 : : 都不是拿AI來調整數值做平衡 : : 我在討論的是用AI做平衡 我已經說了沒人這麼做就是因為價值很低: 1. 可能遊戲根本不需要那麼平衡,甚至有的遊戲本來就是需要有一點動態的不平衡 變化來維持。 例如,LoL 的新英雄強勢期。 2. 你在做決策訓練的過程中,事實上大多數情況可以同時處理到平衡問題。 例如,圍棋 AI 從頭到尾都只是訓練最佳化下棋的策略,但藉由其結果,卻也同 時得到人類對局確實以黑貼六目半是當前最平衡的選擇(雖然白略優)。 因為以上兩個主要理由,幾乎足以涵蓋大多數案例,所以相對少有公司直接投資 在直接用 AI 做平衡上。當然學術上往這個方向做也沒什麼問題,但要做到分析平衡 能遠比用 2 順便處理到還成本低廉,然後該產品又非常需要這麼平衡的用例是真的 不多。 所以你要說我打模糊仗,那也可以,因為整個業界都在打這個模糊仗XD 不過我是從根本上想質疑你所謂「找發散」這種概念啦,我很鼓勵你做個 toy project 來展示一下所謂 找發散 => 做平衡 的因果,不然恕我想像不到你的思路 XD。我甚至對於你「找發散」的數學模型都非常好奇,請務必指教一下。 : → ddavid: ,基因演算法這種口頭上演化講得很有噱頭,實質上其實還是 04/16 16:47 : → ddavid: 一種搜尋演算法的東西能使用的範圍就已經極度減少了 04/16 16:48 : 我在提就是Backpropagation只能找收斂而非找發散 : : 我本身就是在做AI的(使用演算法到硬體指令做晶片加速都有) 如果你懂AI 歡迎討論^^ : ※ 編輯: PosetMage (60.115.80.231 日本), 04/17/2023 14:11:30 : 推 cutearia: GA的問題一樣是後期收斂時大部分染色體解都相同,不覺 04/25 00:04 : → cutearia: 得效果會比類神經網路好。怎麼把你說的strategy space 04/25 00:04 : → cutearia: 大小轉換成reward/fitness來訓練可能會有比較直接的效 04/25 00:04 : → cutearia: 果 04/25 00:04 GA 的本質不脫上一代 AI 的搜尋方式,我是不會期待它比起深度學習有普遍性 的更佳表現啦。GA 最大的缺點基本還是在於並沒有嘗試整合 pattern,在學習規模 相同的情況下,想訓練出並儲存等量且差異性的學習結果會比深度學習 Cost 更高。 -- 「傳說的最後,魔王總是被勇者封印。但勇者會逝去、封印會衰弱,魔王卻永遠 不滅。傳說呢?傳說持續著。只是,變質了。所以對於傳說而言,只有反覆無常的自 己是主角,而魔王只是配角。勇者?勇者不過是消耗品罷了,封印則什麼也不是。妳 好不容易有機會當上配角,怎麼走回頭路想成為消耗品?妳早晚會什麼也不是的。」 --星.幻.夢的傳說 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.32.30.72 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1685005731.A.83C.html ※ 編輯: ddavid (114.32.30.72 臺灣), 05/25/2023 17:32:28