→ bookstar07: LR太大了 11/16 00:19
推 moodoa3583: 如果最後是二元分辨(True/False, 0/1),那loss比起用' 11/16 00:54
→ moodoa3583: categorical_crossentropy',也許用'binary_crossentro 11/16 00:54
→ moodoa3583: py'會更適合一些 11/16 00:54
推 moodoa3583: 然後也許沒有使用one hot encoding 的必要,抑或是我 11/16 00:59
→ moodoa3583: 誤會你說的二元分類的意思了? 11/16 00:59
推 moodoa3583: 此外像其他板友提過的,可以在第二層加上dropout,最 11/16 01:05
→ moodoa3583: 後的activation 從softmax換成sigmoid,以及在fit那邊 11/16 01:05
→ moodoa3583: 加上validation_split=0.2取兩成的train data當val. d 11/16 01:05
→ moodoa3583: ata,以此來觀察模型是否缺乏/過度訓練 11/16 01:05
推 bookstar07: M大看他上篇說的 underfitting可能性比較大 11/16 01:30
→ bookstar07: 簡單解法就是增加層數、節點數 11/16 01:31
→ bookstar07: 換優化器改cost func.都無法改善模型複雜度不足 11/16 01:32
推 ciaoPTT: 一次dropout 11/16 10:02
→ ciaoPTT: 第二層dense太小 11/16 10:02
→ ciaoPTT: lr拿掉 1e-02.... 11/16 10:04
→ ciaoPTT: metrics增加error 11/16 10:04
→ ciaoPTT: bs=64 就行 11/16 10:05
→ ciaoPTT: 可以的話弄個one cycle fit 11/16 10:06
推 ciaoPTT: loss function改binary_crossentropy 11/16 10:10
推 moodoa3583: 如b大所說,如果是under fitting 那就增加層數節點試 11/16 16:50
→ moodoa3583: 試看,或是最直觀的增加epochs 11/16 16:50
推 moodoa3583: 噢我剛剛看到你的epochs已經30了,那就朝向增加層數和 11/16 17:44
→ moodoa3583: 每層增加unit這個方向先試試看吧 11/16 17:44