看板 Trading 關於我們 聯絡資訊
假設切入的是 dqn dqn 成功的關鍵之一是 experience replay,玩遊戲 okay,不見得適合直接套用在交易,交易的經驗是會失效的,或者再加一些機制 dqn network 學的是 q value,是一個迭代的值,不是那麼直觀,換句話說,可能不知道 network 學到了什麼,overfiting 時不容易解 看內文,喜歡 rl 的原因是可以幫你決定進出場,一個 regression network 定義一下 loss function 也可以,例如 network output p 當成是持有部位的變化 c 是漲跌變化 loss function 可以是 - p * c network 的 output 就可以幫你決定進出場 沒人知道交易是雞還是牛,所以那把刀好用很難說,不管如何手上那把刀要用順一點 rl 是一把不太好使的刀,deepmind 的論文都能充分理解,使起來會比較遊刃有餘 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.125.204 ※ 文章網址: https://www.ptt.cc/bbs/Trading/M.1534819738.A.0A7.html
Czero: 當發現是雞或是牛的時候再把適合的刀拿出來是嗎XD 08/21 15:32
ProTrader: " Deep Reinforcement Learning Doesn't Work Yet " 08/21 17:12
ProTrader: 這篇文章也再說類似的事 深度強化學習不是那麼容易的 08/21 17:13
sma1033: DL目前的確是很困難的事,主要問題還是在於運算速度太慢 08/22 11:19
sma1033: 我每次調整參數重跑實驗都要數小時才能看到調整後的結果 08/22 11:20
sma1033: 而且以完整的實驗來說,需要嘗試的參數組合非常多 08/22 11:22
sma1033: 如果沒有一些對資料的insight,盲目亂調的話很靠難運氣 08/22 11:23
sma1033: 調出好的結果(所以需要看很多Paper,從別人的思路學習) 08/22 11:23
h4k: DQN做交易系統沒問題,如果只看DQN output做交易,那就死定了 09/08 15:24