推 zako1113 : 我猜是無關的, (a)是Tikhonov regularization 06/17 00:49
→ zako1113 : 是我在學inverse problems時遇見的 06/17 00:49
→ zako1113 : 基本上用Tik.reg.就已經是放棄找Ax=b的解 06/17 00:50
→ zako1113 : 而是要控制一下估算解的長度 06/17 00:51
→ zako1113 : 好像是當λ→0時, regularized solution 06/17 01:10
→ zako1113 : 會趨近minimum norm solution 06/17 01:10
→ znmkhxrw : 我去查一下wiki我解的(a)確實就是會有你說的結果耶! 06/17 01:28
→ znmkhxrw : 這樣看起來確實λ趨於0才會使兩個x相等... 06/17 01:29
→ znmkhxrw : 還是說 他們的"equivalence"其實是"approximation"? 06/17 01:29
→ znmkhxrw : 一直猜定義好煩阿QQQ 06/17 01:30
推 zako1113 : 我的理解是regularization越少越貼近原本式的解 06/17 01:32
→ zako1113 : 但當A是ill-posed的時候, 直接解可能會出現不好的 06/17 01:33
→ zako1113 : 結果 06/17 01:33
→ zako1113 : 而且我學的時候也沒有特定方法選λ 06/17 01:34
→ zako1113 : 只能試不同λ看結果再比較 06/17 01:35
目前看到最清楚的是這篇 所以我才會問(a),(b)是否等價
https://goo.gl/1ITTgf
因為他在equation (3) 下方寫了:
λ > 0 is a scalar regularization parameter that balances the tradeoff between
reconstruction error and sparsity
以及 equation (6) 下方寫了:
when p = 0, equation (6) is equivalent to the generalized form of equation
(1); when p = 1, equation (6) is equivalent to equation (2).
所以我才把它翻譯成存在λ > 0可以抵消掉這兩個最佳化問題的誤差 進而等價
不過等價這個詞幾乎每個找到的資料都有寫@@
※ 編輯: znmkhxrw (61.231.124.20), 06/17/2016 01:44:11
→ zako1113 : 會不會紅色那句漏打了the generalized form of (2) 06/17 01:55
→ znmkhxrw : 如此一來 是不是又要猜他的generalized form是啥了? 06/17 01:56
→ znmkhxrw : 我沒學過這個 不太清楚那些只是形容詞 哪些是這領域 06/17 01:57
→ znmkhxrw : 的術語XDDD 06/17 01:57
→ zako1113 : A generalized version of equation (2), which all 06/17 03:09
→ zako1113 : ows for certain degree of noise 06/17 03:09
→ zako1113 : 這句你連結的文章裡寫的 06/17 03:09
→ zako1113 : 他可能是加regularization就叫成generalized ver 06/17 03:11