推 wheado: 謝謝神人大哥開導 11/15 13:08
→ wheado: 我想請問optim裡面的cg到底跟我的差別在哪,為何optim可以 11/15 13:08
→ wheado: 找到最小可是我的不行....看套件說明的detail都是用同樣的 11/15 13:09
→ wheado: 方法 11/15 13:09
→ abc2090614: 我覺得有可能是浮點數的問題 在算hessian時以你的函數 11/15 14:03
→ abc2090614: off-diagonal的應該是0 但用numDeriv會有一點誤差 11/15 14:03
推 wheado: 也就是說要去了解optim是如何自己算出gradient 跟 hessian 11/15 14:08
→ wheado: ... 11/15 14:08
→ wheado: 在一般問題最佳化的時候,根本就找不到函數偏微分,其他更 11/15 14:08
→ wheado: 不用說了.... 11/15 14:08
→ abc2090614: 也有可能是那篇文章裡的作法有誤 我過兩天再研究一下 11/15 14:11
推 wheado: 好的,謝謝大哥,我也會繼續試試看 11/15 14:19
→ abc2090614: 發現自己不知道在講啥= = 應該不是浮點數問題 11/15 15:18
推 wheado: 哪到底是~好混亂啊 11/15 16:13
→ Wush978: 除非convex 否則演算法不保證能找到最佳解 11/16 02:22
→ Wush978: optim用的演算法都是許多人試過好用的 11/16 02:22
→ Wush978: 區區一篇paper的方法要打敗這些被公認的好方法不容易 11/16 02:22
推 wheado: 恩……所以是演算法的問題嗎?那我在去看看optim 裡面的CG 11/16 08:04
→ wheado: 到底是怎麽跑的…… 11/16 08:04
→ wheado: 但是我並沒有要global min 而是希望可以跑到local min 但 11/16 08:07
→ wheado: 是希望可以避開saddle point 目前的情況似乎是我的會掉到s 11/16 08:07
→ wheado: addle poont 可是……optim可以掉到local min…… 11/16 08:07