→ chang1248w: 你沒睡醒吧,receptive field 變大可是 feature 05/22 21:01
→ chang1248w: dimension不會變多 05/22 21:01
→ chang1248w: score計算成本才會隨著square of receptive field 05/22 21:02
→ chang1248w: 增長 05/22 21:02
→ majaja8787: 感謝您,雖然我這邊還是沒有很懂.. 因為我對nlp研究比 05/22 22:25
→ majaja8787: 較多,對cv其實不太了解,可能我再多看一些基礎的知識 05/22 22:25
→ majaja8787: .. 05/22 22:25
→ chang1248w: 就像nlp裡面的transformer,你序列拉長qkv計算成本增 05/22 23:50
→ chang1248w: 加但參數量不變 05/22 23:50
→ majaja8787: oh ok!我知道了,感謝您 05/23 08:46
→ yoyololicon: 這邊的參數指模型自帶的參數 QKV矩陣不是 05/23 12:54
推 OnePiecePR: 2. 基本上 self-attention,的輸入經過幾次網路轉成 06/01 19:07
→ OnePiecePR: QKV,所有的參數都在形成 QKV 前發生了。所以所有的 06/01 19:07
→ OnePiecePR: 輸入都要做 QKV 轉換。然後有了 QKV 後,我們會去做 06/01 19:07
→ OnePiecePR: self-attention,這時候的 self-attention 都是數學 06/01 19:07
→ OnePiecePR: 定義計算,沒有參數。如果一個 self-attention 沒有 06/01 19:07
→ OnePiecePR: 全域 attent,而有 receptive field,這時候如果 rec 06/01 19:07
→ OnePiecePR: eptive field 比較小,只是 self-attention 少一點計 06/01 19:07
→ OnePiecePR: 算,這些都是關於計算量,跟參數無關。 06/01 19:07
→ OnePiecePR: 1. CNN 的卷積功能參數是記錄在 filter 的內容,所以 06/01 19:08
→ OnePiecePR: 只跟 receptive field 有關。我們常常說,參數量跟 r 06/01 19:08
→ OnePiecePR: eceptive field 的大小平方成正比。正確來說是:與re 06/01 19:08
→ OnePiecePR: ceptive field 的大小成正比。比如 filter 是 (3, 3) 06/01 19:08
→ OnePiecePR: 就是守 3x3 的範圍,(5, 5) 就是守 5x5 的範圍。所 06/01 19:08
→ OnePiecePR: 以是跟 “邊” 成平方比例,或尺寸 9、25 成正比。標 06/01 19:08
→ OnePiecePR: 準 CNN 卷積層的參數量是 (輸入層數 x L x L x filt 06/01 19:08
→ OnePiecePR: er 數量 N + filter 數量),當我們用了 (L, L)的 06/01 19:08
→ OnePiecePR: filter. 06/01 19:08