→ BruceChang: 這邊的人發現新大陸的時間差不多是一年前... 08/18 18:37
一年前還沒有draw things阿
別這樣
對我們這種非科技業的來說
要安裝stable diffusion還是太硬了點
對你們來講python好像便當
但對我們都要重頭學 太痛苦
所以我很感謝無腦的app draw things開發出來
※ 編輯: Tosca (111.254.246.191 臺灣), 08/18/2023 18:39:42
推 BruceChang: 沒有啦 SD剛出也是還在蹲 是NAI嚇死人然後洩出去之整 08/18 18:44
→ BruceChang: 個加速很多 08/18 18:44
※ 編輯: Tosca (111.254.246.191 臺灣), 08/18/2023 19:11:05
推 stlinman: 還以為會拿出珍藏哥吉拉公仔。 08/18 22:01
AI生都很歪
→ tzouandy2818: 野人獻曝 08/18 22:47
因為你們都不獻啊
不然秀一下嘛
推 Vulpix: 我還以為有什麼新東西…… 08/18 23:26
哎呀 不然你都畫什麼東西?
推 baroque3: 他只是對前篇的爭論不甘願,繼續開新戰場,他一直以為前 08/19 02:28
→ baroque3: 幾篇的爭論點是因為大家都不懂AI繪圖,只有他最懂 08/19 02:28
不是啊你們也很少分享AI繪圖啊
不然你們都怎麼畫?
→ hitlerx: 非科技業的玩stable diffusion不是都直接下載懶人包嘛o.o 08/19 04:21
draw things更無腦 功能也很強了
→ andyleeyuan: 一年前不是無腦colab就好了嗎 08/19 06:27
colab可以離線?
離線很重要喔
→ Loliprpr: 不是 你自己連webui都沒使用過還跟人大談闊論? 08/19 08:02
以色色來說webui沒有比較強啊=.=
※ 編輯: Tosca (36.239.87.107 臺灣), 08/19/2023 08:15:30
噓 bruce900120: 要處理姿勢怎麼想都是用控制網,用i2i只會把一堆姿 08/19 08:37
→ bruce900120: 勢以外的元素混進去而已,上面說野人獻曝確實貼切== 08/19 08:37
→ bruce900120: 然後色色最強就webUI不然是啥? 08/19 08:38
這也可以啊
你們平常都不分享我以為你們都不會畫畫只會生文
我是好心怕你們不會畫來教你們耶
webUI色色比較強嗎?!
我看C站分享的色圖都超爛完全沒有學習動力=.=
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 08:41:53
→ bruce900120: 看你上一篇說跑圖要弄mac studio真的差低 08/19 08:46
哎呀 不然你們都弄甚麼?!
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 08:50:53
→ ZMTL: 你是不是完全沒有看[Stab]分類? 08/19 09:37
→ ZMTL: stable diffusion早就色的亂七八糟了才沒人用draw things 08/19 09:37
→ ZMTL: *[StaD] 08/19 09:38
→ ZMTL: 討論畫圖的幾乎都在這個標籤,你完全略過耶XD 08/19 09:38
draw things比較無腦
app打開直接下載就能用
你如果上課想教人家AI
其實應該教draw things
我是很看好他
你們想要推廣就是要無腦好用
然後以色色來說
SD辦的到的 draw things也辦的到阿
因為draw things本來就是基於SD阿
同樣的draw things畫不好的SD也畫不好啊
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 09:49:03
推 andyleeyuan: 要無腦就用midjourney 有stable diffusion webui可用 08/19 09:54
midjourney不是要連線使用?
不能離線就不能色色了阿
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 09:54:56
→ andyleeyuan: 我不懂為什麼要用draw things 我ckpt檔快要1TB lora 08/19 09:55
推 andyleeyuan: 、controlnet都還沒算 08/19 09:56
方便推廣
會畫畫的人不一定懂那麼多電腦
draw things無腦在買一台ipad pro
直接下載直接離線開始用
然後以生照片來說draw things已經夠強大了啦
生照片 修圖一下
速成deep fake
一般人根本無法分辨了
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 09:59:35
→ andyleeyuan: 看來你是完全不知道webui能做到什麼事情 有哪些外掛 08/19 09:58
→ ZMTL: 基本上StableDiffsion原生做不到的話Draw things一定不可能 08/19 09:58
→ ZMTL: 做到 08/19 09:59
→ ZMTL: 更別提算力強度還是有差別,如果電腦3090或4090,圖片的長寬 08/19 09:59
→ ZMTL: 不是沒人在討論畫圖,只是沒人在討論Drawthings 08/19 09:59
圖片只能算比較小沒錯
但其實生出來之後再拿去用修復舊照片的AI
直接4倍解析度就好了
這樣反而快很多
所以對創作來講
本來就是先盡量快速生出很多小圖
生到覺得可以用了
再拿去放大 精修 fine tuning等等
反而你們想的 直接生出一張精緻大圖
結果每次等那麼久 每次盲抽
每次不滿意
不會比較省時間
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 10:01:40
→ ZMTL: 教Midjourney的原因是我需要授課的對象都沒有瑟瑟需求 08/19 10:00
你有點倒果為因了
台灣美術系考試每間都要考裸體素描
結果連線AI都不讓人畫裸體
請問是沒有需求還是乾脆放棄需求???
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 10:03:06
→ ZMTL: 那個修復四倍放大在行家眼裡問題很多,之前有人解說過 08/19 10:02
→ ZMTL: 用軟體放大跟直接生大圖有相當懸殊的差異 08/19 10:03
看取捨阿
就像我用音樂舉例的
有時候一首交響曲不需要用到那麼多樂器
沒有鋼琴豎琴的曲子多的是阿
同樣的很多圖不需要那麼精細
我只要主角漂亮 胸部正確 乳頭真實不要太假
這樣就夠了
背景精緻度? 我不care阿
這樣了話我直接軟體放大就好了
我根本不需要原生去生一張那麼大的圖出來
所以還是要看需求
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 10:04:49
→ ZMTL: 沒有需求啊,商業宣傳素材與內部草圖工具能有什麼色色需求 08/19 10:03
→ ZMTL: 我在這個行業的 08/19 10:04
→ ZMTL: 色色可以讓更多本來沒需求的人進來玩,但商業的主要需求從 08/19 10:04
→ ZMTL: 來都不會考慮能不能色色 08/19 10:04
→ ZMTL: 不如說,我們還會希望這些工具被限制死完全不能色 08/19 10:05
→ ZMTL: 最近做個GPT的案子,為了怎麼保證GPT不會色跟技術人員還有 08/19 10:05
→ ZMTL: 法務來回開了N次會議 08/19 10:06
→ ZMTL: 做的應用不小心色起來可能就有人要被告了 08/19 10:06
就是因為這樣所以才害大家不能色o.O
※ 編輯: Tosca (111.254.246.191 臺灣), 08/19/2023 10:07:25
→ Akabane: 連線的明明就有啊... 08/19 11:59
推 purue: 沒有 無聊其實是臉都一樣 就傳統說的塑膠臉 08/19 14:40
很多中文名稱的號稱美女checkpoint真的生出來臉都一樣
不管跟他說要生俄羅斯還是印度美女
出來真的都那張韓國臉
所以還是請大家善用chilloutmix
真的是美女生成器
各國美女都生的出來
話說阿伯我發現SD超會生印度美女
不知道是不是因為開發者一堆印度人的關係
噓 asdasd02tw: 好了啦醫生 回去政黑鬧 不要在這邊秀了 08/19 18:11
哎呀 我好心來教大家畫畫耶
※ 編輯: Tosca (1.173.136.125 臺灣), 08/19/2023 19:45:31
推 reader2714: 就是大家都用chill才會看到膩好不好 08/19 19:54
chilloutmix生混血兒超強好嗎
※ 編輯: Tosca (1.173.136.125 臺灣), 08/19/2023 20:15:25