精華區beta C_Chat 關於我們 聯絡資訊
想了想 反正我的想法可能一個月內就有人做出來 廢物如我也懶得弄 ===== 就我所知 風格轉移(style transfer)已經很成熟了 最近這麼多討論 都要奠基在風格轉移的表現穩定 傳統上的漫畫 或動畫 想法》劇情〉分鏡》具有風格的畫面〉連貫 想法到劇情是最難的,先不討論 但只要產生劇情,接下來就好辦了 劇情到分鏡,自然語言到基本結構的圖 Mid journey 有一部分就是用關鍵字製造結構 結構搞定了就風格轉移 找自己喜歡的圖加上自己的分鏡 就能有風格的畫面了 https://i.imgur.com/PyfpKgx.jpg 畫面到動態 節點連貫就搞定了 你說畫漫畫 動畫難嗎? ※ 引述 《medama》 之銘言: : 標題:[討論] AI算圖根本沒那麼厲害 : 時間: Tue Aug 30 09:30:10 2022 : : 1. : 那個吵得很熱鬧的網站 : 過了一整天 : 還是只有公開一開始展示的七幅圖 : https://illustmimic.com/zh/illustmakers/ : : 其他人做的效果怎樣?不知道。 : 但想必沒有這七幅效果好 : (測試時可以反覆針對測試圖生成的方向調整修改) : : 2. : 就算效果跟這七幅圖一樣好 : 會影響的也只有收幾百元替人畫頭像的畫家 : : 基本上AI就抓髮型、臉型、五官 : 套入模組生成 : 跟幫你畫一篇漫畫的距離大概跟地球到月球的距離一樣遠 : 3. : 講什麼畫風會被盜用 更是多慮了 : 知名漫畫家那麼多仿作 : 有人會認為巴哈姆特綺多是富樫自己畫的嗎? : : 4. : → roywow: 反正也是時間問題而已 : 推 discoveryray: 現在很爛過五年怎樣就不知道了 : : 最難的就是從A到A+ : AI花了二十年發展,能模仿到80分 : 但想要模仿到90分 : 可能要再花上20年 : -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.138.64.248 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1661825231.A.B36.html
AN94: 畫漫畫一直都不難 能賣錢的很難08/30 10:09
BwDragonfly: 因為你先不談最難的部分,當然就看起來不難08/30 10:13
BwDragonfly: 而且你還說了「加上自己的分鏡」08/30 10:14
因為這系列主要討論在生圖 我上面有說現有工具就是nlp 生分鏡 結構
hsnu7980: 這篇的討論就沒有討論劇情吼08/30 10:15
hsnu7980: 分鏡用自然語言生成呀08/30 10:15
diabolica: 沒劇情那就暫時本本取向R08/30 10:15
hsnu7980: 你寫一段小說 直接丟進機器,出來就是漫畫了08/30 10:16
BwDragonfly: 那你的結論應該準確地說:漫畫和動畫的畫面部分就不難08/30 10:17
BwDragonfly: 了08/30 10:17
※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 10:17:45
BwDragonfly: 所以 "把小說丟進機器" 這段呢XD08/30 10:18
BwDragonfly: 那你就討論生圖就好 一下子跳到更進階的漫畫、動畫08/30 10:18
BwDragonfly: 又說 要把最難的部分移走先不討論08/30 10:19
asdfg0612: 你真的知道你講的那些東西在幹嘛跟現在能做到甚麼嗎www08/30 10:19
哪部分你覺得我說錯了
hsnu7980: 引文在討論漫畫呀08/30 10:19
※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 10:20:30
BwDragonfly: 我怎麼沒看到那邊有討論"漫畫"08/30 10:20
asdfg0612: 你有看過實際上自然語言生成做出來的東西長怎樣嗎08/30 10:21
asdfg0612: 而且分鏡又不是文字 你是要用自然語言生成生成啥08/30 10:21
BwDragonfly: 他只說目前要到AI幫你畫漫畫 距離還很遠08/30 10:22
hsnu7980: Mid journey 就是「能」用自然語言呀08/30 10:22
BwDragonfly: 然後你說把距離很遠的原因去掉 就很近了XD08/30 10:22
對呀 就很近了呀
hsnu7980: 你給物品相對關係,都幫你生出來了 08/30 10:23
※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 10:24:25
cv120345: 問題是一般小說哪會給明確的相對關係,到最後還是要自己 08/30 10:25
cv120345: 設計分鏡才能畫出連貫的畫面08/30 10:25
asdfg0612: 你可以都去玩玩看 看你試個幾百幾千次 08/30 10:25
asdfg0612: 能有幾次的成果跟你想的一樣那麼美 08/30 10:25
So what!? 千分之一的機率又怎樣 以工程師而言有問題就讓他進步呀 我只說前景都可預期了 沒說現有的技術就足夠商業化
cv120345: 你把設計分鏡動作連貫性等等拿掉當然會覺得接近了08/30 10:26
篩選器也可以設計呀, 只是我就沒有追這個技術了
skyofme: 說實話我沒理解怎麼從你的舉例得到不難的結論08/30 10:28
我的想法很大一部分奠基在mid journey 上 自然語言生成構圖,而且是精緻不是模糊的 這意味著,文字到生圖已經可以自產自銷了 那動畫就只是圖片的連貫,現階段尚需要人工篩選分鏡,但那也只是現階段 ※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 10:29:47 ※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 10:33:21
jazz1617821: 噗 生圖的技術背景 是資料庫的pattern 先問連貫分鏡 08/30 10:50
jazz1617821: 怎麼數值化成pattern? 08/30 10:50
arcZ: 你有試著自己畫出分鏡過嗎 08/30 10:53
arcZ: 能做的四格漫畫水準就很厲害了08/30 10:53
maplenight: 感覺就是完全不懂程式的人跑來說加一點這個功能很簡08/30 11:05
maplenight: 單吧08/30 11:05
maplenight: 還講的一副很簡單只是懶的弄,這種腦內大師真是太多08/30 11:07
maplenight: 了08/30 11:07
我是不強呀,開頭前三句就講啦 還用你嘴? 你也可以覺得很難不做呀 反正我沒差,一定有人會弄出來的 而且不會太久 甚至兩年內就被幹出來了 === 從風格轉移,物體切割拼貼到midjourney 也不到6年 ※ 編輯: hsnu7980 (223.138.64.248 臺灣), 08/30/2022 11:12:08
poison5566: 生成圖是沒問題 但目前不可能有分鏡或劇情 現在的AI問 08/30 11:14
poison5566: 題就是只能學習但沒辦法創作 08/30 11:14
jjjj222: 很難啊 因為你現在做出來的東西 根本賣不掉 08/30 12:20