推 wtchen: regularization?12/14 00:00
有點沒get到這跟正則有甚麼關係
推 goldflower: 應該沒啥假設吧 大多用orthogonal initialization加12/14 17:41
→ goldflower: 上loss constraint去達成你想要的正交效果 但我有用12/14 17:41
→ goldflower: 的都是去要求layer內的weight正交 output間正交或許12/14 17:41
→ goldflower: 可以參考看看orthogonal low rank embedding這篇?12/14 17:41
理想的output是正交,但是weight也適用的文章我還沒看過。 當前dense layer的大多預
設是採用uniform distribution,然後train好後大部分都會變成高斯分佈,主要是卡在
這個分佈的轉換有沒有相關的研究。像你提到的ole就透過修改loss迫使網路呈現出這特
定性質。
推 wtchen: 若你是用NN做迴歸,想看各輸入參數(x1, x2, ...)是否正交12/14 20:34
→ wtchen: 那你應該是在做NN前就該確定了12/14 20:35
→ wtchen: 把X形成的矩陣做特徵分解不就行了?12/14 20:36
不是討論feature的問題,而是單純討論information在layer之間傳遞的變化。
推 goldflower: 跟輸入正交沒啥關係12/15 09:52
起因是我發現有些Network在well-train後weight仍是uniform,這個現象我認為有點反常
,畢竟normal比較符合少數資訊決定結果的假設。
※ 編輯: acctouhou (42.72.241.212 臺灣), 12/15/2020 17:28:28
推 yiefaung: over-parameterization的話很正常吧 不然哪來這麼多prun 12/16 17:45
→ yiefaung: ing空間 12/16 17:45
→ yiefaung: regularization可以看作是對weight分佈的假設 可以跟MLE 12/16 17:49
→ yiefaung: MAP等關鍵字一起搜索看看 12/16 17:49