作者cybermeow (北歐組一生推)
看板C_Chat
標題[瑟瑟] 看色圖不求人Part2 AI生成色圖全教學
時間Tue Sep 20 09:37:20 2022
古拉鎮樓 (從Discord搬運 非本人生成)
https://i.imgur.com/HWRVeJW.png
Part 1 在這
https://www.pttweb.cc/bbs/C_Chat/M.1662444496.A.2E6
不重要 過時了 這篇將包含所有你生成色圖需要的資訊
1. 使用者界面 Stable Diffusion Webui
天天更新官方的在這裡
https://github.com/sd-webui/stable-diffusion-webui
但個別版本一堆主流好像是用1111的 個人也是用這個
https://github.com/AUTOMATIC1111/stable-diffusion-webui
跑起來大概長這樣
https://i.imgur.com/JmYKTSv.png
安裝方式按照每個網站說的 像是官方的寫這樣
windows
https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.installati
on.md
linux
https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.linux-inst
allation.md
1111的Nvidia卡寫這樣
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-o
n-NVidia-GPUs
個人linux就是clone回來
開conda環境
跑python launch.py
有dependency問題就修 然後就好了
另外也有用Google Colab的選擇 只想測試沒有要瑟瑟的人可以用
使用上就像上面那張 可以選擇 postive 跟 negative prompt
https://i.imgur.com/JmYKTSv.png
(negative prompt 貌似只有 1111 的有支援)
positive個人一般放 artwork of ... 之類的
negative很迷 可以放一些感覺負面的東西 (如圖中所示)
也可以試著避開一些結果例如把opened mouth放過去讓嘴巴閉起來之類的
到底怎麼找到合適的prompt蠻不直覺的
而且很浪費時間 畢竟這個東西一個月後大概就長不一樣了
所以下面會介紹其他方式來生成想要圖片
2.模型
有了使用者界面最重要的當然是模型本身
幸運的是現在很多人在訓練 從一般的到動畫到瑟瑟到pony到furry都有
這裡整理了一些
https://rentry.org/yrpvv
一般ACG用Waifu Diffusion 這週末會釋出v1.3
要瑟瑟用Lewd Diffusion 不太好控目前只是beta beta beta版本
大老們還持續在蒐集資料跟訓練中
載下來後傳到webui資料夾裡面models的資料夾就可以用了
理論上用哪個模型現在可以直接在Settings換就可以
不過目前似乎有bug所以behavior有點迷 有時候直接整個關掉重開比較方便
另外因為是開一個port 可以在伺服器開外部ssh進去
也有支援直接public開給人用等等
3.圖片生成: 學習概念篇
如上所說 要用prompt生成想要的圖片實在不易
所以個人推薦自己跑一個 textual inversion 學習你想要的概念的embedding
之前已經發了好幾篇實作案例
https://www.pttweb.cc/bbs/C_Chat/M.1662622748.A.4E6
https://www.pttweb.cc/bbs/C_Chat/M.1662808060.A.746
https://www.pttweb.cc/bbs/C_Chat/M.1662880538.A.386
這一次拿來測彩奈
https://i.imgur.com/H7XS3YX.png
頭髮遮眼睛真的學不起來 髮飾則微妙
要學這個embedding個人測試過兩個 分別是
以stable diffusion原本repo為基礎的
https://github.com/lstein/stable-diffusion/blob/main/docs/features/TEXTUAL_INVER
SION.md
和diffuser的
https://github.com/huggingface/diffusers/tree/main/examples/textual_inversion
學這個12GB Vram的話圖片大小用448x448才不會記憶體容量不足
Vram更多直接用原本的512x512就可以
個人覺得diffuser的操作起來比較容易但每次重新複製整個模型很迷
如果用diffuser的話產生的東西裡面會有會有一個.bin的檔案就是學到的embedding
至於用第一個好處是可以用tensorboard看當下進度
而其中目前生成的圖片會存在log/..../images/train面
可以大概判斷一下目前學的如何 覺得ok的時候停掉
跑的過程會直接產生一推.pt的檔案在checkpoints裡面
之後就在webui開一個embeddings的資料夾
把想要的.pt放進去 如果沒意外你可以選最後一個 (embeddings.pt)
改一下名稱 像是arona.pt 之後prompt直接輸入arona拿學到的embedding
如一開始的圖所示 (這裡用arona0)
https://i.imgur.com/JmYKTSv.png
至於diffuser生成的.bin檔案把結尾改成.pt一樣同一個方法用
textual inversion因為不調模型只學embedding所以受限於模型參數本身
沒辦法完全重現想要的結果
想要更符合的圖片的話 除了直接finetune還可以用dreambooth
https://github.com/XavierXiao/dreambooth-stable-diffusion
比起finetune只需要少量圖片
跑起來比textual inversion還快 (不到一小時)
缺點是訓練出來的模型沒有相容性 一個觀念就一個模型
而且因為調整個模型需要30G Vram 現階段幾乎只能用雲端服務租A6000
不過很便宜 舉例來說 一個人訓練的古拉模型花才幾百台幣
可以得到以下成果
https://i.imgur.com/jYQA6gC.png
比起個人之前的文章很明顯更好的學到了特徵
只是dreambooth學到的東西也不好控制
常常prompt給錯就整個崩掉
相較之下textual inversion得到的結果雖然比較差但壞掉時也是漸進式的
下面的古拉自拍系列prompt也調很久
https://i.imgur.com/69dRvb7.png
開頭那張也是這個模型生的
4.圖片生成: 以其他圖片做基底篇 Image to Image
webui功能一大堆天天更新有興趣的可以自己看
這裡再介紹一個image2image用圖片當輸入作為參考
就某個角度來說它這個implementation是用個很簡單的演算法
效果差強人意
但拿來做風格微調或者當作圖片構圖基底還算能用
界面長這樣
https://i.imgur.com/fczYbl2.png
使用範例 拿來把戀X或女X3dX的圖2d化
像這張 (取自
https://www.pixiv.net/artworks/85531604)
https://i.imgur.com/47jljPp.png
https://i.imgur.com/XOA8Q5k.jpg
或是 (目前的模型仍然有生成四肢障礙
https://i.imgur.com/x7WxXHa.jpg
https://i.imgur.com/eMC89Qs.jpg
Denoising越大會離遠本圖片越遠 因為會先加一堆噪音開始重新繪圖
(圖片生成原理細節:
https://www.pttweb.cc/bbs/C_Chat/M.1661681711.A.DE3
再貼幾個 (右3d 左2d化
https://i.imgur.com/dRBO1Qp.png
https://i.imgur.com/8Dvl4rZ.png
https://i.imgur.com/ReJK5Az.png
source:
https://www.pixiv.net/artworks/87009158
https://www.pixiv.net/artworks/85178188
https://www.pixiv.net/artworks/85443189
當然像是lyroris那篇把2d真人化也可以
當輸入是就是真實系3d cg
只能說效果很可怕 基本上就是deepfake
然後目前雖然有支援inpainting也就是把缺失部分補足的功能
但個人發現diffuser跟stable diffusion原本repo的演算法不一樣
webui應該是用後者
然後兩個演算法感覺都沒到很好
所以有興趣的人應該可以藉此水一篇paper (雖然應該一堆人會去水了
5.色圖
上面那套用正確的模型下去做基本上可以生成各種色圖
不過目前主要受限於資料品質以及clip embedding相關知識不足
當姿勢或視角跑掉太多基本上幾乎生不出來
日本的馬賽克規定也變相增加訓練難度 使得關鍵部份常常效果不佳
但各種調整還是可以有不錯的結果
有興趣可以去 4chan h/hdg 看 (不過那裡也混了各種真實系的
以下示意圖應該不會被桶吧?
https://i.imgur.com/hcC4K9n.png
https://i.imgur.com/FCUWKY2.png
置底貼個彩奈換裝系列 效果依舊差強人意
https://i.imgur.com/a8gffeN.jpg
更多資訊可以參考
https://wiki.installgentoo.com/wiki/Stable_Diffusion#Waifu_Diffusion
網路上有幾個discord也都可以加 (應該都是英文的
--
北歐組一生推
https://i.imgur.com/ydMoryp.jpg
https://i.imgur.com/njHa0OA.jpg
https://i.imgur.com/KVrWmNb.jpg
https://i.imgur.com/leUc4jP.jpg
https://i.imgur.com/aWFuDE4.jpg
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.34.19.251 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1663637848.A.AA1.html
推 LeeXX: 推09/20 09:39
推 smart0eddie: 色色09/20 09:39
→ bamama56: 瑟瑟教學09/20 09:40
推 ataky: 爆讚09/20 09:40
推 Aka2306012: 推09/20 09:40
推 hh123yaya: 最正確的使用方法09/20 09:41
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:42:19
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:43:37
推 Political: 推09/20 09:43
※ 編輯: cybermeow (114.34.19.251 臺灣), 09/20/2022 09:50:48
推 billy791122: 所以這可以訓練r18圖嗎09/20 09:47
上面lewd diffusion就是完全在ACG r18圖訓練的
真人的更是行之有年了
furry pony也都是有R18的
推 REDF: 推 科技進步09/20 09:48
→ REDF: 完成這些的人應該領諾貝爾和平獎09/20 09:48
→ f1731025: 色圖永動機要研發成功了嗎09/20 09:49
推 MonDaNai: 學術研究09/20 09:51
推 Koyomiiii: 學...學術研究(鼻血09/20 09:51
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:55:21
推 kkoejeo: 謝囉09/20 09:57
推 goldfishert: 會不會以後有人用殭屍電腦來畫色圖上傳牟利啊?09/20 09:57
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:59:05
→ roribuster: 畫圖ai最終都會被人類訓練成只會畫色圖 09/20 09:59
推 SetsunaOgiso: 槓 文組看不懂啦 09/20 10:00
推 aiglas0209: 浪漫 優質 09/20 10:05
推 DarkyIsCat: AI:人類就是色色09/20 10:05
推 js850604: 還好AI不看迷因,不然畫一畫都變阿姆斯壯09/20 10:05
推 iwinlottery: 以後不用去理洽請神了09/20 10:05
推 HDDY: 這篇有點猛09/20 10:09
→ ARCHER2234: 電腦白痴的我已經過載了09/20 10:10
→ ARCHER2234: 有沒有一鍵生成澀圖的啊?09/20 10:10
你安裝完成就是一鍵了
或是請別人安裝好開給你用也是一鍵
剩下就很多東西要調整自己想文字放什麼
使用者介面倒是做很快
開源來這個月每天都在飆
剩下或是背後演算法要好 之後有自然會有人寫介面
推 SunnyBrian: 看不懂也要先推 09/20 10:11
推 AdmiralAdudu: 太爽辣 色圖自給自足09/20 10:14
推 ImCasual: 爆生時間 09/20 10:16
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:17:13
推 herbleng: 推09/20 10:17
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:18:00
推 CYL009: 以後色圖自己產09/20 10:22
推 Tsozuo: 為什麼覺得AI瑟瑟比手繪色色還複雜..... 09/20 10:23
因為還在開發階段 五年後就不好說了
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:27:27
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:29:25
推 uohZemllac: 推09/20 10:29
推 ryo1008: 畫圖學不好,電腦又學不好,我還有什麼用QQ09/20 10:30
推 newcsie68: 推 有空也想來研究一下09/20 10:30
推 likeyousmile: 太強了09/20 10:33
推 frankfipgd: 推一個w09/20 10:39
推 AlianF: 太苦了 我只是想要瑟瑟09/20 10:40
→ ARCHER2234: 了解,我需要找電腦工程師表妹幫我裝好09/20 10:41
→ ARCHER2234: 這樣會社死嗎?09/20 10:41
→ cybermeow: 跟她說要用人工智慧進行藝術創作 聽起來就很潮09/20 10:47
推 nyanpasu: 一天10次有材料啦09/20 11:13
推 qxpbyd: 好奇你兩個upscaler的來源是哪裡? Reddit的unstablediffus09/20 11:24
→ qxpbyd: ion被BAN了 NovelAI也有自己做了anime和furry model 09/20 11:25
我就用模型生成沒用upscaler欸
novel ai都不開源搞sfw吧zzzzz
推 tamynumber1: 等到AI理解人類性癖的時候,就是決定要毀滅人類的時09/20 11:26
→ tamynumber1: 刻了09/20 11:26
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 11:37:13
推 longkiss0618: 感受到時代的進步 09/20 11:37
推 Koyomiiii: 我比較怕以後有人大量生產157 09/20 11:37
推 qxpbyd: 沒事Google到了 NovelAI至少他DC現在是可以免費產圖09/20 11:48
→ qxpbyd: 我不確他之後是走midjourney模式還是會開源 不過SD一開始09/20 11:49
→ qxpbyd: 在DC也是會用SFW filter 幫助他們產生SFW版本09/20 11:50
→ qxpbyd: 走商業模式是沒辦法 只能說SD創辦人太有錢 目光也很遠09/20 11:51
需要賺錢的確是現實上很麻煩的點
理想上是走開源軟體那套做Open Source software as a service
而且老實講現在這個東西這麼多人搞
實在不看好靠模型賺錢
不如開源演算法模型趕快做平台
hugging face 也是幾乎都開源的
市值也到了20億美金
不知道他們商業模式怎麼樣
訓練waifudiffusion的人說
but if they do make some high quality smut model and never open source it, i'm g
oing to just train a clone of it and make it open source.
然後也不知道是受限於美國商業文化還怎樣
全部都畫地自限做sfw
像是今天讓幻影社來做是不是就會完全不一樣
明明nsfw也是很大的商機
當然把這樣的模型用midjourney那套做也不合理
雖然理想上是把nsfw模型開源給所有人用
然而這背後確實也有很多的社會因素需要探討
只是實在是很不爽很多公司什麼都商業機密那一套
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:05:33
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:18:14
推 nicehuman: 推 09/20 12:48
→ fmp1234: 色色 09/20 12:51
推 harryzx0: 太棒了 但是看不懂 09/20 13:11
推 attacksoil: 哇靠 我好像玩得起來 來試試 09/20 13:24
推 outsmart33: 太專業了 09/20 14:11
推 aegis123321: 優文 09/20 14:29
推 Nuey: 瑟瑟貓千萬要小心別被FBI抓走了== 09/20 14:45
→ cybermeow: 會注意的 多謝關心 祝大大一生上廁所都有衛生紙 09/20 15:39
推 twohigh: 太神啦 09/20 16:04
推 Kaede5908: 謝謝 光看你這篇我就好了 09/20 16:37
推 bitcch: 滿詳細地 也來玩玩看好了 09/20 17:14
推 inte629l: 詳細推 顯卡:我到底學了什麼東西 09/20 18:39