推 st1009: 學習率過大容易超過的說,我都設0.00001之類的,epoch 2w 11/10 12:26
推 EGsux: 能說一下你的lable 跟dataset嗎? 11/10 12:29
推 Kazimir: 你需要調整權重的初始值 一般會用N(0,0.01) 11/10 13:57
→ Kazimir: 如果還是有問題在調整LR到0.01 11/10 13:57
→ yoyololicon: learning rate太大+1 11/10 13:58
→ yoyololicon: 別用vectorize, numpy好好的broadcasting特性為何不 11/10 14:03
→ yoyololicon: 用(扶額 11/10 14:03
→ yoyololicon: 然後hidden layer的activation換別的看看(非relu類 11/10 14:06
→ yoyololicon: 的),這麼淺用relu可能會GG 11/10 14:06
推 bessgaga: 一層隱藏層的效能本來就不好了吧,我覺得很快收斂是意 11/10 15:29
→ bessgaga: 料之中耶 11/10 15:29
→ EGsux: e/master/01_mysteries_of_neural_networks/03_numpy_neu 11/10 15:51
→ EGsux: ral_net 11/10 15:51
推 yiefaung: 把每一層output印出來看看符不符合你的預期 11/10 17:34
→ yiefaung: 通常印出來就知道問題出在哪 不用亂試 11/10 17:34
推 Sfly: 你對learning rate的認知是錯的 11/18 14:52