精華區beta comm_and_RF 關於我們 聯絡資訊
※ 引述《captainVince (purple rain￾ ￾N￾ )》之銘言: : 請問一下LMS跟LS到底有什麼不一樣 : 一個是有Mean 一個是擷取一段資料 : 看了書上寫的公式 總覺得無法理解LS真正的物理意義 : LMS是從MMSE的觀點出發 變成衣個adaptive filter : 藉由一次一次的update 讓Cost(error) 降低 : LS也有非常類似MMSE的公式 除了沒有mean之外 : 像是Normal equation ,wiener filter : 都跟MMSE類似 請問一下 LS如果以adaptive的觀點來說 : 是不是就跟LMS是一樣的呢? LMS是不斷的tracking : LS是不是就是一段資料 一段資料來看? : 每次都reset再計算coefficient? LS 的主要概念就是利用time average 來實作wiener的ensamble average (所以隱含有ergodic的假設) 至於LMS與LS的差別 就在於對於input sample的memory深度 你用RLS的公式來看 forgetting factor = 0 memory = (1-forgetting factor)^-1 = 1 這是LMS forgetting factor = 1 memory = (1-forgetting factor)^-1 = 無限大 這是LS 這也是為什麼對靜態環境LS較適合 對於比較動態的環境LMS的會比較好 LMS會被現在的error影響結果 而LS會被error的sample average影響 給你做個參考 有錯請指正 -- -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 140.113.212.87