推 thefattiger: 1.可以是可以,但為什麼要?09/19 11:44
train到一段時間後,前面的layer gradient vanish了,想加BN看能不能改善
剛剛我仔細檢查兩者發現selu要求initialization是Xavier
可是BN的initialization好像是variance固定是1,
好像互相衝突了,
不知道我結果怪是不是這原因
→ thefattiger: 2.我沒試過,但這兩個概念應該沒有衝突 09/19 11:44
※ 編輯: PyTorch (114.136.227.153), 09/19/2018 14:39:40
→ PyTorch: 謝謝樓上回答 09/19 14:40