→ arrenwu: 因為那些東西在輸出上只會弄出些亂七八糟的東西而已 10/25 22:16
→ arrenwu: 不會說你指定出來她就會給你個看起來像作者名字的東西 10/25 22:16
推 dalyadam: 不蓋掉等等圖片跑出抄襲來源怎辦 10/25 22:16
推 Vulpix: 主要是幾乎不會出現完整的資訊,而且就算出現了,反而會 10/25 22:17
→ Vulpix: 有冒名的問題。 10/25 22:17
推 x2159679: 其實我很好奇BAD ANATOMY BAD HANDS那些TAG是怎麼來的? 10/25 22:17
→ Tiberius: 那些詞的意思是, 不要在你產生的圖片上出現「看起來像 10/25 22:18
→ x2159679: 原本的訓練資料有標這種TAG喔?? 10/25 22:18
→ Tiberius: 文字或簽名的東西」 10/25 22:18
噓 LeeXX: 想太多 AI弄出來的浮水印和作者名也不會是哪一位特定人士 10/25 22:18
→ LeeXX: 的 只會影響觀看而已 10/25 22:18
→ DeeperOcean: 意思就只是不要生成像簽名的東西,實際上你直接加入 10/25 22:18
→ DeeperOcean: prompt也生不出任何所謂的原作資訊 10/25 22:18
→ Tiberius: 現在的訓練來源 LAION 是有標 tag 沒錯 10/25 22:20
→ showwhat2: 原來是這樣嗎?可能我有點鑽牛角尖了。@@ 10/25 22:20
→ arrenwu: 他就算真的直接尻出某個繪師在畫作上的簽名,也沒啥意義 10/25 22:20
→ Tiberius: 但是 stable diffusion 用的 tag 模型 CLIP 其實是可以 10/25 22:21
→ Tiberius: 文轉圖的, 所以訓練原圖不一定要有 tag 10/25 22:21
推 asiaking5566: 浮水印只會生出一坨梵文 10/25 22:21
→ Tiberius: CLIP 一開始訓練的是把有關的圖片跟文字轉成相近的向量 10/25 22:23
→ Tiberius: 所以什麼文字跟什麼圖有關係, 其實是 CLIP 決定的 10/25 22:24
→ Tiberius: 那假設 CLIP 訓練的時候從來沒看過斷肢浮水印簽名這些 10/25 22:25
推 Vulpix: 有可以自用的CLIP嗎?我是猴子,然後很多時候prompt不到 10/25 22:25
→ Vulpix: 位,想參考電腦怎麼看一張圖的。 10/25 22:25
→ Tiberius: 之後它怎麼知道這些是什麼 ... 嗯誰知道 ( 10/25 22:25
推 AUGnebulaUGA: 就別加啊,我沒加也沒看他出現過 10/25 22:25
→ Tiberius: Automatic1111 的切到 img2img 那一頁就有了 10/25 22:26
→ Vulpix: 我好像有看過類似血條的東西。 10/25 22:26
→ Vulpix: !! 10/25 22:27
→ Tiberius: 搜一下 "how to use deepdanbooru with automatic1111" 10/25 22:28
→ Tiberius: 要注意的是 interrogate CLIP 做的事情其實是圖片讀進去 10/25 22:29
→ Tiberius: 然後拿一大串關鍵字列表問它 "這張圖是不是 ooxx" 10/25 22:29
→ Tiberius: 他沒辦法把圖轉出來的向量逆轉成文字 所以你還是要知道 10/25 22:29
→ Tiberius: 詞庫才能「問」得出來 XD 10/25 22:30
推 guogu: 你可以試著加到正向看看會出什麼阿 10/25 22:30
→ guogu: 我有成功弄出過幾次可以辨識的字 但google都找不到人 10/25 22:31
噓 aria0520: ... 10/25 22:56
→ aria0520: 搞懂原理再感嘆 10/25 22:57
推 conqueror507: 有沒有設定dataset讓AI學習的教學啊,畫出來都有四 10/26 00:39
→ conqueror507: 個胸部,兩個身體 10/26 00:39
推 DOG841202: 本來就該飲水思源吧,這東西不就餵別人東西才有的== 10/26 02:33
推 HARUbo: Ai算圖目的就是讓你越來越不用動腦啊,生產更多OP嘻嘻 10/26 03:30