推 min86615: 有加watch嗎? 10/29 22:53
→ min86615: 抱歉沒看到 10/29 22:57
推 baby0326sky: 感覺問題出在loss_func,確定labels跟predictions有 10/29 22:59
→ baby0326sky: 正確運算到嗎? 10/29 22:59
推 min86615: 話說你gradient是放在同一層嗎,後面兩行要放在和with同 10/29 23:07
→ min86615: 一層哦 10/29 23:07
推 acctouhou: 你要先檢查你的model裡面真的有可以train的參數嗎?或 10/30 02:56
→ acctouhou: 是你在建完model後有clear 10/30 02:56
推 qwe85158: gradients跟optimizer多縮排了 10/30 14:56
→ clansoda: 請問baby大,如何確定有正確算到呢? loss這個物件是一個 10/30 22:02
→ clansoda: tensor,裏頭是一個實數的scalar,應該算是有正確算到吧 10/30 22:02
→ clansoda: min大,後面兩行有放在同一個縮排了 10/30 22:03
→ clansoda: acc大,我有print過model.trainable_varaibles 10/30 22:04
→ clansoda: 裏頭確實是有一個長度為10的list,元素都是tensor 10/30 22:04
→ clansoda: qwe大,請問什麼是多縮排呢? 10/30 22:05
推 PhysiAndMath: tape計算gradient的時候要離開with 10/30 22:17
→ clansoda: 我只能周一再貼圖了,code在公司電腦 10/30 23:57
→ clansoda: 我目前應該是前兩行在with下 而後兩行在外面的縮排 10/30 23:57
推 baby0326sky: 之前也遇過這個問題,那時候我是的損失函數沒寫好, 10/31 01:10
→ baby0326sky: 導致損失並不是透過labels跟predictions運算出來的, 10/31 01:10
→ baby0326sky: 所以才無法反向傳播得到gradients,所以建議可以檢查 10/31 01:10
→ baby0326sky: 一下 10/31 01:10
推 art1: 看線上文件都有用到 watch,有可能是這個原因嗎? 10/31 13:45
→ art1: 似乎不是... 10/31 13:47
推 nj882033: 有一些lib函數返還的數值會沒有梯度喔 11/05 12:21
→ nj882033: 你確認下到哪一步突然沒有梯度,換掉那就可以了 11/05 12:22
→ clansoda: 我自己回自己一下,如同nj大所說 這邊的問題就是函數 11/07 08:48
→ clansoda: 我使用的cross entropy是來自於tensorflow.keras.metric 11/07 08:49
→ clansoda: 實際上要使用tensorflow.keras.lossess同一名字的函數 11/07 08:49
→ clansoda: 他才會正確的追蹤梯度,但實際上你完全可以print出 11/07 08:49
→ clansoda: 正確的loss,導致很難理解為什麼沒辦法回傳梯度 11/07 08:50
→ clansoda: 這點跟pytorch不太一樣,pytorch沒有metrics跟loss之分 11/07 08:50
→ clansoda: watch的話,我自己看得tutorial是沒有加上去的 11/07 08:51
→ clansoda: 但我自己寫的code我有補上,這點再請其他人補充 11/07 08:51
→ chang1248w: 一個是tensorflow operation function,return numpy 11/15 19:31
→ chang1248w: 另外一個是keras layer object 11/15 19:31
→ chang1248w: metrics那一類是用來監測模型訓練的指標,不能算梯度 11/15 19:34
→ chang1248w: 合情合理 11/15 19:34