看板 DataScience 關於我們 聯絡資訊
關於投稿ICLR那篇的BigGAN 不知道有沒有人測試過在其他dataset的效果? 或是大家看完有沒有什麼想法? 大家討論一下吧? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.95.225 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1539185008.A.066.html ※ 編輯: Activation (114.136.95.225), 10/10/2018 23:24:09
a75468: 也不是人人都能爽 train batch size 2048 的 model ... 10/11 00:03
文中說batch size變大有變強應該是因為兼顧diversity,那如果採用不像imagenet這麼diverse的dataset,不一定需要那麼大batch size?不過都要試了才知道
patrick2dot0: 512 cores TPU for 24~48 hours10/11 00:28
seasa2016: U錢人10/11 00:30
yoyololicon: 一般人很難reproduce QQ10/11 07:54
※ 編輯: Activation (114.136.150.168), 10/11/2018 17:39:37
yiefaung: code有release嗎 搜了一下沒看到有人開始reproduce 10/11 22:47
a75468: batch size 不變大不就是原本的SAGAN了 10/14 16:38
a75468: 他後面那些trick都是基於batch size變大後做的改正 10/14 16:38
a75468: 如果batch size沒那麼大做那些trick會發生什麼不好說 10/14 16:38