推 a75468: 也不是人人都能爽 train batch size 2048 的 model ... 10/11 00:03
文中說batch size變大有變強應該是因為兼顧diversity,那如果採用不像imagenet這麼diverse的dataset,不一定需要那麼大batch size?不過都要試了才知道
→ patrick2dot0: 512 cores TPU for 24~48 hours10/11 00:28
→ seasa2016: U錢人10/11 00:30
→ yoyololicon: 一般人很難reproduce QQ10/11 07:54
※ 編輯: Activation (114.136.150.168), 10/11/2018 17:39:37
推 yiefaung: code有release嗎 搜了一下沒看到有人開始reproduce 10/11 22:47
→ a75468: batch size 不變大不就是原本的SAGAN了 10/14 16:38
→ a75468: 他後面那些trick都是基於batch size變大後做的改正 10/14 16:38
→ a75468: 如果batch size沒那麼大做那些trick會發生什麼不好說 10/14 16:38