→ yoyololicon: loss curve貼一下 08/24 15:34
→ yoyololicon: 你stride都1這樣沒降維吧 autoencode的目的是? 08/24 15:38
我想看有沒有channel 會被autoencoder drop掉,然後想看model對不同波段做了什麼事
→ yoyololicon: 雖然你遇到的問題可能跟架構也沒什麼關係08/24 15:39
→ yoyololicon: 應該寫錯code(?08/24 15:39
code是公司ml工程師寫的,我改了一點以後兩個一起檢查過了應該沒問題。
→ chang1248w: 怎麼樣把一張圖片切出36*36*224的...東西08/24 18:20
→ chang1248w: 我參不透08/24 18:20
我們的相機是特殊的相機,本身就有224個波段,我只是切個36x36pixel下來
→ chang1248w: 你貼個preprocessing 和model implement 的code好不08/24 18:21
→ chang1248w: 有時候實現出來不完全是你想的那樣08/24 18:21
---
因為資料是美國管制資料所以我不能拍照也不能截圖QQ
※ 編輯: NDEJG (98.223.102.101 美國), 08/24/2022 21:51:18
→ chang1248w: 大致了解08/24 23:00
→ chang1248w: autoencoder會train成什麼形狀,取決於你給他的訓練08/24 23:05
→ chang1248w: 任務,我們通常會移植其中的一部分來做其他的事情,08/24 23:05
→ chang1248w: 諸如分類和生成圖像08/24 23:05
→ chang1248w: code看也不好說什麼了08/24 23:11
→ chang1248w: 你先用原本會變瘦的版本試試吧08/24 23:44
更新:
把最後一層activation function 改成linear就有不錯成果了,另外我誤會keras conv2D
做的事了,即使filter size跟channels 一樣多每個filter也還是從多個channel去取fea
ture ,不過從每層feature看來有一部分的feature map還是全部都0,filter數量應該夠
,有錯請指正
※ 編輯: NDEJG (128.210.107.88 美國), 08/25/2022 00:53:04
→ chang1248w: 全零大概就是被relu吸收掉的那些樣本 08/25 09:42
→ chang1248w: 你想找的應該是depthwise conv 08/25 09:43
→ chang1248w: 沒有bottle neck structure 那你的autoencoder 最佳 08/25 09:45
→ chang1248w: 解自然就是identity transform 08/25 09:45