看板 DataScience 關於我們 聯絡資訊
最近在看ICCV 2019最佳論文SinGAN 不太懂為什麼他可以做到單張training可以 有跟多張圖片大量train的SRGAN相近的SR結果 我的理解是他這個方法training跟testing都是同 一張圖片 跟一般的SRGAN在testing圖片 是training中沒有的很不同 因為SinGAN的training跟testing都是用同一張圖片 所以有點像偷看答案 才能與大量圖片的training SRGAN相比 我的理解有對嗎? 謝謝 --
a000000000: 那是假ee真cs刷題仔10/11 07:37
a000000000: 真ee很慘 不過沒人管10/11 07:37
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.32 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1575420128.A.DC8.html
robert780612: 我記得paper裡面有一段是說影像內不同位置的local 12/06 12:15
robert780612: feature會很類似 12/06 12:15
robert780612: 還有一篇deep image prior也是單張圖就可以train 12/06 12:16
PyTorch: 那traing跟testing是同一張對吧? 12/08 20:43
followwar: NO SINGAN跟deep image prior類似的概念是將 12/09 23:25
followwar: Network要學的是single image的分布 12/09 23:27
followwar: SINGAN在TEST時是丟NOISE進去也可以丟別的image進去 12/09 23:29
followwar: 而hierachical的架構可以幫助學到global->local分布 12/09 23:30
真的那麼神奇? 還蠻驚訝的 意思是說 我train SinGAN時用一張石頭牆壁的圖去訓練 testing時丟草地或是樹林進去讓他做super resolution也可以做到跟SRGAN相比? 好像變魔術? 因為石頭牆跟草地樹林的分佈差很多 ※ 編輯: PyTorch (140.112.30.32 臺灣), 12/11/2019 03:37:38
yoyololicon: 感覺樓主好像有搞錯東西… 12/11 12:55
yoyololicon: 只有看過image prior, 不過如果sinGAN 也是類似的話 12/11 12:57
yoyololicon: ,這類model 在做的事情和其他大部分model 不太一樣 12/11 12:57
yoyololicon: image prior練出來的weight只有針對那張圖而已,不 12/11 12:58
yoyololicon: 能套到其他圖上 12/11 12:58
KirimaSyaro: 我也是覺得train跟test就是同一張圖 12/11 12:59
KirimaSyaro: 可是不清楚 這樣要怎麼跟SRGAN比較 12/11 13:00
yoyololicon: 大概看完了singan,的確和deep image prior的概念類 12/11 15:35
yoyololicon: 似 12/11 15:35
yoyololicon: train 和test 的圖是同一張沒錯,但train 時的圖是d 12/11 15:36
yoyololicon: ownsample 過的 12/11 15:36
yoyololicon: test 時才是餵原本的解析度 12/11 15:36
yoyololicon: 所以還是能比較R 因為test sample 嚴格來說和traini 12/11 15:38
yoyololicon: ng 時不一樣 12/11 15:38
yoyololicon: 每次要inference一張圖,就是重train,不過training 12/11 15:45
yoyololicon: 通常都很快啦畢竟只有一張 12/11 15:45