看板 DataScience 關於我們 聯絡資訊
底下的連結是一段DDQN的程式,我知道它導入了entropy的概念,但不懂第38行的由來。 請問有誰知道原始數學式或推導過程? 感謝回覆。 https://github.com/ShawK91/Evolutionary-Reinforcement-Learning/blob/master/alg os/ddqn.py -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.182.159 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1654670526.A.51D.html
yuwenche: 網址太長,編輯有問題,無法跳轉,煩請複製貼上網址。 06/08 14:45
ruthertw: 幫縮址教學:https://reurl.cc/A7D6ME 06/08 15:47
chang1248w: softmax就歸一成機率,其他就...cross entropy... 06/08 16:11
lycantrope: 那就是cross entropy, Σ-Plog(P) 06/08 16:22
yuwenche: 感謝回覆。那這應該也可以用torch.nn. 06/09 14:53
yuwenche: CrossEntropyLoss()函數代替吧? 06/09 14:54
yoyololicon: cross entropy又稍微有點不一樣 06/09 18:53
yoyololicon: 你現在的例子應該是沒辦法直接替代 06/09 18:54
st1009: 缺少副標 我已經幫忙補上,下次請注意 謝謝 06/11 09:52
feelthat: entropy的原始數學 是熱力學波滋曼的熵 你要學熱力學! 06/19 03:14
feelthat: 電腦用的 是改良過的 shannon 熵 06/19 03:15
feelthat: 文章: earthquakes: energy balance and entropy 06/19 03:17
feelthat: 如果有人利用這篇文做出地震熵的預測 請上來發表與分享 06/19 03:18
feelthat: 造福人類幸福安全 06/19 03:18
yuwenche: 抱歉,是我自己沒想通。這根本是entropy的定義: 07/13 13:04
yuwenche: E(X) = – sum x in X P(x) * log(P(x)) 。只是被 07/13 13:07
yuwenche: softmax給搞混了。 07/13 13:08