精華區beta C_Chat 關於我們 聯絡資訊
※ 引述《loveSETSUNA (味噌豆腐)》之銘言: : AI繪圖不是一段時間了嗎? 怒刪,剛好碩班是研究AI領域,以我的角度來看 其實人工智慧這一塊的發展跟人類特徵學息息相關。人類從自我的習性套用到機器上,透 過流程特徵化後編制pipeline讓機器模仿人類的習性。 先說結論,Machine Learning(ML)不可能只靠「單一」一張畫師的畫就可以訓練成一個有 效的模型;相反地它需要透過大量的數據去臨摹某一種畫風。 故與其說AI抄襲某人的畫作,不如說它臨摹某派系的畫風。你大部分無法在機器學習上看 到單一畫家的風格。因為牽扯到overfitting的問題 也因此決定AI抄襲這一塊其實可以Focus在該模型輸入端對於某畫師的畫作資料佔所有輸 入量的幾成。 因為這會間接導致該模型的類神經參數會對佔多數的輸入畫作特徵擁有極高的權重。如同 人類對于抄襲比例佔多寡才算抄襲 至於一兩張就想要說抄襲的…我認為這站我的觀點來看,只能說不太可能。因為一兩張 影像的特徵就算喂入類神經網路中頂多Train 出垃圾而已。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.190.119 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1661833310.A.3B1.html ※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 12:23:33
leo0519: 以後 GAN 的輸入就是性癖向量 08/30 12:24
hyakkiyagyo: 好的 結論就是低端文組被害妄想症08/30 12:24
Mchord: https://github.com/tamarott/SinGAN 2019ICCV參考一下08/30 12:27
有趣的reference, 但我認為它比較像是基於某畫面上增加某些物件的model 它無法從無到有create一幅畫出來,而比較像將物件segement到該畫上,有點像目前NFT 但又不太相同
metallolly: 推科普08/30 12:29
Koyomiiii: 所以比較有可能的是以後繪師不上傳圖到p站全部丟付費的08/30 12:31
※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 12:33:31
Koyomiiii: 可能性比較高嗎?08/30 12:31
Koyomiiii: 留圖庫等於風險之類的 08/30 12:31
metallolly: 有些圖庫會特別註明:商用要特別花錢買.就像你字型要用08/30 12:33
metallolly: 在包裝上也要特別買過一樣,類似的想法吧08/30 12:33
riceworm520: 所以要畫風相似,除非是ai 喂圖大量的只喂同一位畫 08/30 12:34
riceworm520: 師的圖。不然根本不會有畫風相似的問題。或是在餵圖08/30 12:34
riceworm520: 的資料有繪師名字,然後指名要某繪師的畫風,才有可08/30 12:34
riceworm520: 能。08/30 12:34
lay10521: 畫圖有辦法評分或算loss嗎==08/30 12:35
ken52011219: 有哦算個相關性(correlation coefficient)應該不難08/30 12:35
Bugquan: 其實最終跟人一樣,除非你硬要模仿誰的畫風,不然一開始08/30 12:36
Bugquan: 就參考一堆人的畫,最後畫出四不像 08/30 12:36
lay10521: 像是算主題的關聯度嗎? 08/30 12:38
y2468101216: 推這篇,真的幾張出來的大部分都是垃圾 08/30 12:42
miyazakisun2: AI 判定抄襲更容易捏 看你權重多少 我覺得繪師應08/30 12:43
miyazakisun2: 該要樂見其成 超過幾趴就告 沒啥模糊空間08/30 12:43
Mchord: 從label map能生出畫才是現在最接近實用的方向 08/30 12:45
ken52011219: 算某特定特徵的AI與人類畫的相關性 但我猜應該都會蠻08/30 12:47
ken52011219: 低的08/30 12:47
ken52011219: 除非該特徵是這派畫風的共同特徵08/30 12:47
y120196276: 回米蟲:從報導看來,訓練的時候應該是公司事先從資 08/30 13:04
y120196276: 料庫餵各式各樣的圖,而不是大量餵同一種圖。模型建08/30 13:04
y120196276: 立好後,只要有人上傳某畫師的圖片,他就能根據學過08/30 13:04
y120196276: 的產出類似的畫風。 08/30 13:04
這技術叫作transfer learning(遷徙學習),它是based on 某些已經fine-tune過參數 的模型再接手繼續training。打個比方對於ML來說辨認汽車的方式跟辨認火車的方式其實 都是同一個特徵。也因此你可以拿火車的模型去接續train 汽車 但問題是,難道因此汽車的數據只要一兩張就可以轉成汽車的模型嗎?不,它仍需要大量 的汽車資料。只是優點是它節省了由0到60的時間 也因此這絕對不是一兩張就能完成的事情 ※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:09:44 ※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:10:44
b23058179: 哇幹拉起來摔 08/30 13:16
b23058179: 回錯文抱歉 08/30 13:16
ken52011219: 笑死 08/30 13:17
Mchord: 繪師在反的哪個beta版只要最低30張就能運作了 08/30 13:18
ken52011219: 以30張來說 單幾張畫佔輸入比應該算蠻高的 08/30 13:20
Mchord: 你拿train過所有廠牌汽車的模型tune在toyota上本來就沒有 08/30 13:20
Mchord: 很難 08/30 13:20
ken52011219: 我認為抄襲定義對於AI來說真的算好量化的 08/30 13:21
Mchord: compile好的model除非他願意不然你很難拿到中間feature 08/30 13:22
ken52011219: ML中間的類神經變數就算拿到了就算拿給我看我這種學A 08/30 13:24
ken52011219: I的也看不懂啦… 裡面就是黑盒子 08/30 13:24
Mchord: 就算拿到了你也很難界定他用了什麼圖訓練,inverse bp可 08/30 13:25
Mchord: 以生成一張有maximum reaponse的雜訊圖,但它可能沒用這 08/30 13:25
Mchord: 雜訊圖來訓練 08/30 13:25
ken52011219: 學品牌不難,因為各車廠有各車廠整體的風格。但要學 08/30 13:27
ken52011219: 習到各品項的車款了話就真的需要一定的數量資料。畫 08/30 13:27
ken52011219: 作同理 08/30 13:27
Mchord: 現在學AI的不用學ML嗎,我還以為CV NLP RL什麼的都要全包 08/30 13:28
ken52011219: 了解程度不同吧 你提的每個要學都可以學到很精 除非 08/30 13:29
ken52011219: 念博班不然碩班兩年太短了 08/30 13:29
ken52011219: 了解原理就好 工作會用到再拿起來複習 08/30 13:30
hinanaitenco: 就learning efficiency問題啊 現在有work在研究 08/30 13:41
hinanaitenco: 未來幾張拿來fine-tune應該就夠了 08/30 13:41
hinanaitenco: 現在data distillation就能做到僅mnist 就acc 80啪 08/30 13:42
YoreX0403: 其實我覺得用pretrain 好的model 去學特定畫師的畫風還 08/30 14:04
YoreX0403: 是有爭議,很多抄襲也是抄襲者有一定基礎,再從被抄襲 08/30 14:04
YoreX0403: 的作品改細節 08/30 14:04
YoreX0403: 如果繪師明訂禁止AI訓練使用那就是一張都不行,怎麼抓 08/30 14:11
YoreX0403: 是另一回事 08/30 14:11
newwu: 他可以把風格降維 用encode之後的不同風格建立生成模型 輸 08/30 14:39
newwu: 入時再把風格降維當模型輸入 08/30 14:39
newwu: 這樣就可以假裝一兩張就學會風格了 08/30 14:39
newwu: 事實上只是早就學會的風格,只是辨識後用該風格畫出來 08/30 14:40