推 yudofu: 最近在Twitter用stable fusion 畫老婆的都是用特別的waifu 10/06 12:28
→ yudofu: model 在畫的吧 10/06 12:28
推 FTS152: 主要還是出在資料集的來源問題 10/06 12:29
推 gogolct: 要真實一點的還是要換回原本的model 就是 10/06 12:33
推 OlaOlaOlaOla: 我覺得現在部份人反感的原因是“感覺”抄太快了 10/06 12:33
→ Splatoon: 自己抄可以,但AI抄的比我快,不行!! 10/06 12:34
→ poeoe: 反正跟不上科技腳步的就是會被淘汰而已 10/06 12:35
推 andy0481: 因為法律保障主觀人格 你再怎樣學習都會混入你的主觀意 10/06 12:35
→ andy0481: 識 喜歡大奶的跟小奶的學習同一張圖會畫出不同奶 但AI所 10/06 12:35
→ andy0481: 謂的學習沒有經過這種主觀意識 很難直接套用 10/06 12:35
→ Splatoon: 有經過使用者的主觀意識阿 10/06 12:36
→ andy0481: 那要看你覺得創作者主觀創作跟調教者對AI生好的圖進行主 10/06 12:37
→ andy0481: 觀評分 有沒有等值了 10/06 12:37
推 miyazakisun2: 原來是學去噪 那stable 這個有點偷吃步啊 10/06 12:40
推 RabbitHorse: 你真以為ai多厲害喔 有人用手繪就屌打了 10/06 12:41
→ pikachu2421: Google的Imagen也是用diffusion model 10/06 12:45
推 leo125160909: 討論半天感覺一堆人根本不懂diffusion model在幹嘛 10/06 12:49
推 dbr623: 因為人就算模仿他人即便門檻變低還是有學習門檻,學習過程 10/06 13:23
→ dbr623: 還是會受個人差異有變動影響結果,但機械模仿是不一樣路徑 10/06 13:23
→ dbr623: ,抽出來特徵就不會動了 10/06 13:23
噓 yoyololicon: 胡亂解釋 GAN跟diffusion 都有用到訓練資料 什麼GAN 10/06 15:30
→ yoyololicon: 沒有看過 不能只從架構上就以為是這樣去理解 10/06 15:30
→ meatybobby: 我這邊指得是傳統Generator的input跟groun truth 10/06 15:39
→ meatybobby: 確實都沒用到原始資料喔 10/06 15:39
→ yoyololicon: = =你沒有理解 不是input output 沒直接對在一起就 10/06 15:49
→ yoyololicon: 不代表沒看到 10/06 15:49
→ yoyololicon: backprop 回去的gradient 不可能不帶有訓練資料的資 10/06 15:51
→ yoyololicon: 訊 10/06 15:51
→ meatybobby: 你可以想一下Generator的loss是什麼 是讓Discriminato 10/06 16:33
→ meatybobby: r判斷他是真的 這裡的Discriminator同樣也沒吃原圖 10/06 16:34
→ meatybobby: 在用原圖練Discriminator時 Generator參數是freeze的 10/06 16:34
→ meatybobby: 所以我才會說Generator沒參考到原圖 10/06 16:36
→ meatybobby: 因為就算是backprop的gradient也是根據Generator產的 10/06 16:37
→ meatybobby: 圖去算的 10/06 16:37
→ meatybobby: GAN的G跟D兩邊更新不是同時的 不然給G看原圖資料 10/06 16:41
→ meatybobby: Generator會太強 10/06 16:41
→ yoyololicon: 如果你覺得這樣就算沒有看 那diffusion 也沒有看原 10/06 18:42
→ yoyololicon: 圖資料 都是有noisy version 10/06 18:42
→ meatybobby: diffussion的input是噪點的原圖 ground truth是原圖 10/06 20:09
→ meatybobby: 跟傳統GAN比起來是直接拿原圖 所以效果才會這麼好 10/06 20:10