推 leo0519: 以後 GAN 的輸入就是性癖向量 08/30 12:24
推 hyakkiyagyo: 好的 結論就是低端文組被害妄想症08/30 12:24
有趣的reference, 但我認為它比較像是基於某畫面上增加某些物件的model
它無法從無到有create一幅畫出來,而比較像將物件segement到該畫上,有點像目前NFT
但又不太相同
推 metallolly: 推科普08/30 12:29
推 Koyomiiii: 所以比較有可能的是以後繪師不上傳圖到p站全部丟付費的08/30 12:31
※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 12:33:31
→ Koyomiiii: 可能性比較高嗎?08/30 12:31
→ Koyomiiii: 留圖庫等於風險之類的 08/30 12:31
推 metallolly: 有些圖庫會特別註明:商用要特別花錢買.就像你字型要用08/30 12:33
→ metallolly: 在包裝上也要特別買過一樣,類似的想法吧08/30 12:33
推 riceworm520: 所以要畫風相似,除非是ai 喂圖大量的只喂同一位畫 08/30 12:34
→ riceworm520: 師的圖。不然根本不會有畫風相似的問題。或是在餵圖08/30 12:34
→ riceworm520: 的資料有繪師名字,然後指名要某繪師的畫風,才有可08/30 12:34
→ riceworm520: 能。08/30 12:34
→ lay10521: 畫圖有辦法評分或算loss嗎==08/30 12:35
→ ken52011219: 有哦算個相關性(correlation coefficient)應該不難08/30 12:35
→ Bugquan: 其實最終跟人一樣,除非你硬要模仿誰的畫風,不然一開始08/30 12:36
→ Bugquan: 就參考一堆人的畫,最後畫出四不像 08/30 12:36
→ lay10521: 像是算主題的關聯度嗎? 08/30 12:38
推 y2468101216: 推這篇,真的幾張出來的大部分都是垃圾 08/30 12:42
推 miyazakisun2: AI 判定抄襲更容易捏 看你權重多少 我覺得繪師應08/30 12:43
→ miyazakisun2: 該要樂見其成 超過幾趴就告 沒啥模糊空間08/30 12:43
→ Mchord: 從label map能生出畫才是現在最接近實用的方向 08/30 12:45
→ ken52011219: 算某特定特徵的AI與人類畫的相關性 但我猜應該都會蠻08/30 12:47
→ ken52011219: 低的08/30 12:47
→ ken52011219: 除非該特徵是這派畫風的共同特徵08/30 12:47
推 y120196276: 回米蟲:從報導看來,訓練的時候應該是公司事先從資 08/30 13:04
→ y120196276: 料庫餵各式各樣的圖,而不是大量餵同一種圖。模型建08/30 13:04
→ y120196276: 立好後,只要有人上傳某畫師的圖片,他就能根據學過08/30 13:04
→ y120196276: 的產出類似的畫風。 08/30 13:04
這技術叫作transfer learning(遷徙學習),它是based on 某些已經fine-tune過參數
的模型再接手繼續training。打個比方對於ML來說辨認汽車的方式跟辨認火車的方式其實
都是同一個特徵。也因此你可以拿火車的模型去接續train 汽車
但問題是,難道因此汽車的數據只要一兩張就可以轉成汽車的模型嗎?不,它仍需要大量
的汽車資料。只是優點是它節省了由0到60的時間
也因此這絕對不是一兩張就能完成的事情
※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:09:44
※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:10:44
推 b23058179: 哇幹拉起來摔 08/30 13:16
→ b23058179: 回錯文抱歉 08/30 13:16
→ ken52011219: 笑死 08/30 13:17
→ Mchord: 繪師在反的哪個beta版只要最低30張就能運作了 08/30 13:18
→ ken52011219: 以30張來說 單幾張畫佔輸入比應該算蠻高的 08/30 13:20
→ Mchord: 你拿train過所有廠牌汽車的模型tune在toyota上本來就沒有 08/30 13:20
→ Mchord: 很難 08/30 13:20
→ ken52011219: 我認為抄襲定義對於AI來說真的算好量化的 08/30 13:21
→ Mchord: compile好的model除非他願意不然你很難拿到中間feature 08/30 13:22
→ ken52011219: ML中間的類神經變數就算拿到了就算拿給我看我這種學A 08/30 13:24
→ ken52011219: I的也看不懂啦… 裡面就是黑盒子 08/30 13:24
→ Mchord: 就算拿到了你也很難界定他用了什麼圖訓練,inverse bp可 08/30 13:25
→ Mchord: 以生成一張有maximum reaponse的雜訊圖,但它可能沒用這 08/30 13:25
→ Mchord: 雜訊圖來訓練 08/30 13:25
→ ken52011219: 學品牌不難,因為各車廠有各車廠整體的風格。但要學 08/30 13:27
→ ken52011219: 習到各品項的車款了話就真的需要一定的數量資料。畫 08/30 13:27
→ ken52011219: 作同理 08/30 13:27
→ Mchord: 現在學AI的不用學ML嗎,我還以為CV NLP RL什麼的都要全包 08/30 13:28
→ ken52011219: 了解程度不同吧 你提的每個要學都可以學到很精 除非 08/30 13:29
→ ken52011219: 念博班不然碩班兩年太短了 08/30 13:29
→ ken52011219: 了解原理就好 工作會用到再拿起來複習 08/30 13:30
推 hinanaitenco: 就learning efficiency問題啊 現在有work在研究 08/30 13:41
→ hinanaitenco: 未來幾張拿來fine-tune應該就夠了 08/30 13:41
→ hinanaitenco: 現在data distillation就能做到僅mnist 就acc 80啪 08/30 13:42
推 YoreX0403: 其實我覺得用pretrain 好的model 去學特定畫師的畫風還 08/30 14:04
→ YoreX0403: 是有爭議,很多抄襲也是抄襲者有一定基礎,再從被抄襲 08/30 14:04
→ YoreX0403: 的作品改細節 08/30 14:04
→ YoreX0403: 如果繪師明訂禁止AI訓練使用那就是一張都不行,怎麼抓 08/30 14:11
→ YoreX0403: 是另一回事 08/30 14:11
→ newwu: 他可以把風格降維 用encode之後的不同風格建立生成模型 輸 08/30 14:39
→ newwu: 入時再把風格降維當模型輸入 08/30 14:39
→ newwu: 這樣就可以假裝一兩張就學會風格了 08/30 14:39
→ newwu: 事實上只是早就學會的風格,只是辨識後用該風格畫出來 08/30 14:40