推 doom8199:是 低維24筆資料 對應到 高維24筆資料嗎? 04/28 19:33
→ doom8199:若是的話,最簡單可以用 least square F=E(C')*pinv(CC') 04/28 19:34
→ doom8199:以後只要有新的資料 x(3,1) 進來, 算一下 F*x 即可 04/28 19:34
→ cofeel:對,是低維24筆資料對應到高維24筆資料!!謝謝你! 04/29 14:36
→ cofeel:這解決了一大半的苦惱~我會再看看關於lS的資料 04/29 14:37
→ cofeel:不過想再請問一下,這個方法是屬於迴歸嗎? 04/29 14:37
→ cofeel:如果我想要這24筆低維資料最後必定還是能完全對應到高維 04/29 14:38
→ cofeel:是不是該使用內插的作法,那又有什麼解法呢? 04/29 14:39
→ cofeel:假設他是平滑的三次式 如cubic? spline...? 謝謝!! 04/29 14:42
推 doom8199:若你創一個 mapping 是完全對應那 24筆資料 04/29 18:30
→ doom8199:很容易會有 overfit 問題 04/29 18:30
→ cofeel:看了許多資料,回歸似乎還是比較好的選擇 04/29 19:48
→ cofeel:不過如果硬是要創這個mapping函數該怎麼做?想比較看看 thx 04/29 19:49
推 doom8199:LS 就是一個 mapping 函數XD ( f(x) = Fx ) 04/30 06:45
→ doom8199:只要你那24筆資料沒有 "outlier",基本上是可以估的還不錯 04/30 06:46
→ doom8199:若你要估得更好,最好的方法就是直接針對問題本身著手 04/30 06:48
→ doom8199:因為你那24筆資料不是憑空得來的,背後應該會遵循某些規則 04/30 06:49
→ doom8199:若那24筆資料真的是憑空得來,還是想做類似內插的動作 04/30 06:51
→ doom8199:那可以試試把問題轉到新的 domain 上 04/30 06:54
→ doom8199:再試試 Bayesian linear regression, 或是類神經網路 04/30 06:54
→ cofeel:耶斯~感謝幫忙,我成功說服老師用迴歸了!!(他執著內插) 05/01 16:15
→ cofeel:我會多看看類神經或其他方式是否更棒! 05/01 16:16