→ a000000000: 那是假ee真cs刷題仔10/11 07:37
→ a000000000: 真ee很慘 不過沒人管10/11 07:37
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.32 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1575420128.A.DC8.html
推 robert780612: 我記得paper裡面有一段是說影像內不同位置的local 12/06 12:15
→ robert780612: feature會很類似 12/06 12:15
→ robert780612: 還有一篇deep image prior也是單張圖就可以train 12/06 12:16
→ PyTorch: 那traing跟testing是同一張對吧? 12/08 20:43
→ followwar: NO SINGAN跟deep image prior類似的概念是將 12/09 23:25
→ followwar: Network要學的是single image的分布 12/09 23:27
→ followwar: SINGAN在TEST時是丟NOISE進去也可以丟別的image進去 12/09 23:29
→ followwar: 而hierachical的架構可以幫助學到global->local分布 12/09 23:30
真的那麼神奇? 還蠻驚訝的
意思是說 我train SinGAN時用一張石頭牆壁的圖去訓練
testing時丟草地或是樹林進去讓他做super resolution也可以做到跟SRGAN相比?
好像變魔術? 因為石頭牆跟草地樹林的分佈差很多
※ 編輯: PyTorch (140.112.30.32 臺灣), 12/11/2019 03:37:38
→ yoyololicon: 感覺樓主好像有搞錯東西… 12/11 12:55
→ yoyololicon: 只有看過image prior, 不過如果sinGAN 也是類似的話 12/11 12:57
→ yoyololicon: ,這類model 在做的事情和其他大部分model 不太一樣 12/11 12:57
→ yoyololicon: image prior練出來的weight只有針對那張圖而已,不 12/11 12:58
→ yoyololicon: 能套到其他圖上 12/11 12:58
→ KirimaSyaro: 我也是覺得train跟test就是同一張圖 12/11 12:59
→ KirimaSyaro: 可是不清楚 這樣要怎麼跟SRGAN比較 12/11 13:00
→ yoyololicon: 大概看完了singan,的確和deep image prior的概念類 12/11 15:35
→ yoyololicon: 似 12/11 15:35
→ yoyololicon: train 和test 的圖是同一張沒錯,但train 時的圖是d 12/11 15:36
→ yoyololicon: ownsample 過的 12/11 15:36
→ yoyololicon: test 時才是餵原本的解析度 12/11 15:36
→ yoyololicon: 所以還是能比較R 因為test sample 嚴格來說和traini 12/11 15:38
→ yoyololicon: ng 時不一樣 12/11 15:38
→ yoyololicon: 每次要inference一張圖,就是重train,不過training 12/11 15:45
→ yoyololicon: 通常都很快啦畢竟只有一張 12/11 15:45