→ chchan1111: 可以去看李弘毅老師的這個課程中Gradient Descent 05/01 02:11
→ chchan1111: 的部分,裡面對batch size的概念說明的蠻清楚的 05/01 02:12
→ chchan1111: 補充 Machine Learning的課程 05/01 02:12
→ TOEFLiBT100: 決的train acc有上升但太慢=>加大batch size 05/01 02:58
→ TOEFLiBT100: 發現train acc卡住=>減小batch size 05/01 02:59
→ TOEFLiBT100: 我昰這樣做的 05/01 02:59
→ ykjiang: 我想跟餵的資料也有關,如資料都類似,batchsize可小些 05/01 13:17
→ AmibaGelos: BN雖然好用但BP時所有FP資料都得要存在同一個GPU上 05/01 14:40
→ AmibaGelos: 模型太大的話根本做不到,GN可以讓模型大小繼續變大的 05/01 14:42
→ AmibaGelos: 同時繼續享受BN帶來的好處 batch大小其實跟BN彼此可以 05/01 14:42
→ AmibaGelos: 互相獨立的,可以開1024的batch拆成8組丟到8顆GPU上各 05/01 14:43
→ AmibaGelos: 自做BN 05/01 14:43