精華區beta C_Chat 關於我們 聯絡資訊
現在Ai繪圖已經發展一段時間了,有沒有公司開始發展Ai動畫?? 都能生成圖畫了,那麼再多給一些咒語讓圖畫動起來應該也是一個發展方向 要多高的解析度跟FPS都可以靠Ai算出來 應該最快被取代的就是18禁動畫,因為他們預算普遍偏低,畫面品質也普遍不高 直接用Ai作畫的話,成本就可以超級壓縮 連配音也不用找了,直接用Ai -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.170.17.144 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1680170146.A.5AA.html
sheng76314: 已经有了 03/30 17:56
Owada: 已經有了 03/30 17:56
allanbrook: 吹的會跟你說很快啦 一兩年啦之類毫無建設性的幻想假 03/30 17:56
allanbrook: 設 03/30 17:56
shawn1028: 不是早就在用了嗎 03/30 17:56
Owada: 你動畫就是好幾張原畫連續播放 03/30 17:56
eva05s: 已經有了,記得已經可以把真人畫面直接轉動畫 03/30 17:57
Owada: 看上去很怪是很怪 但是要論有沒有是有的 03/30 17:57
allanbrook: 現在ai動畫的邏輯大部分是批次處理影格加上濾鏡式的 03/30 17:57
allanbrook: 方式 03/30 17:57
這樣的話,還不是我想像中直接用Ai作畫的方式直接用咒語請Ai畫 不過看到Ai發展的速度,說不定還真的很快就做出來了 因為Ai繪圖跟ChatGPT也是突然就出來的東西,說不定已經有人在後面做了
acininder: txt2video學術進度上的確是約落後1-2年左右 03/30 17:58
allanbrook: 除非有新的處理方式 不然這個方法要做你平常看的那種 03/30 17:58
allanbrook: 動畫 工太繁瑣了 03/30 17:58
acininder: 現在還在dalle1等級的小解析度上發展 03/30 17:58
bluejark: 已經能做了啊 只是做的好的的不多 03/30 17:58
astinky: 現在就是動新聞水準的程度 03/30 17:58
acininder: 隨著controlnet的進展 出現了另一條新路 03/30 17:59
allanbrook: 好看的幾乎都是已存在影片的濾鏡處理的感覺而已 03/30 17:59
rogerliu123: https://youtu.be/GVT3WUa-48Y 03/30 18:00
allanbrook: 但AI的可控性就沒有那麼精準 03/30 18:00
acininder: Corridor Crew有在實作diffusion based的動畫短片 03/30 18:00
acininder: 剛講完就有人貼了 那我就不贅述了 03/30 18:01
allanbrook: 上面那個影片就很明顯 你就是要有原始的檔案 03/30 18:01
原始的檔案?比如說像是動畫的分鏡稿嗎
acininder: 純粹的txt2video可以追meta和google的進展 03/30 18:02
acininder: 這兩家走最前面 03/30 18:02
allanbrook: 不是 就是要嘛實拍影片 要嘛3d動畫 只靠分鏡他是不會 03/30 18:04
allanbrook: 動的 03/30 18:04
astinky: 原始的檔案就是指已經完成的動畫影片,丟給AI過個水就叫 03/30 18:04
astinky: AI製作的動畫這樣 03/30 18:04
acininder: 舉例來說你用戀活的骨架擺出一個短片後用diffusion渲染 03/30 18:04
allanbrook: 或是手繪動畫 總之要是影片 03/30 18:04
原來如此,不過也是可以減低不少成本了
acininder: 如果你想要的是 寫一個劇本大綱 然後自動生成影片 這 03/30 18:06
acininder: 類的還在低解析度發展 google前陣子的dev會議有展示 03/30 18:06
對動畫產業來說,用分鏡稿直接生成應該對他們來說比較容易
abccbaandy: 先畫本本再說吧...動畫也太早 03/30 18:06
allanbrook: 但認真來說這個方向要創作新內容我覺得完全是脫褲子 03/30 18:06
allanbrook: 放屁 03/30 18:06
abccbaandy: 不過韓國條漫感覺有些像AI做的,劇情、畫面都怪怪的 03/30 18:07
bluejark: 用controlnet線稿還是骨架也能做但他會亂生圖 03/30 18:07
abccbaandy: 然後狂出新作 03/30 18:07
bluejark: 網路上可以看到很多垃圾動畫會一直亂跳圖的 03/30 18:08
我覺得這就是Ai動畫要解決的,就是每一張畫之間要有關聯性 而不會一直變來變去
acininder: Google展示的一段敘述文章 然後產生約一分鐘的影片 解 03/30 18:09
acininder: 析度跟openai的初代dalle差不多 初代到今年約兩年 當 03/30 18:09
acininder: 時dalle剛出時完全沒人料想到解析度和品質的進展會如 03/30 18:09
acininder: 此爆速 03/30 18:09
acininder: 所以要我推估的話 未來一到兩年的確可能出現初具雛形 03/30 18:11
acininder: 的可用txt2video 而不是現在的拼接渲染歪路 03/30 18:11
那有沒有用分鏡稿的方式? ※ 編輯: krousxchen (1.170.17.144 臺灣), 03/30/2023 18:12:22
acininder: 因為這技術是已經存在且有持續在發展的 03/30 18:11
acininder: 在txt2video解析度提升至可用前 應該是controlnet bas 03/30 18:13
acininder: e的作法會先支配領域一陣子 03/30 18:13
acininder: 分鏡稿的方向就跟現在controlnet style比較接近 03/30 18:13
acininder: 兩大路線之爭 img2video 還是txt2video 03/30 18:14
acininder: 都有機構在做 03/30 18:14
acininder: 現在純img2video已經可以做到類似哈利波特裡報紙的那 03/30 18:15
acininder: 種感覺 03/30 18:15
acininder: 機構展示上像是讓名畫動起來 03/30 18:16
arsl400: 不要瞎掰好嗎?影像處理領先語言處理幾十年,什麼突然出 03/30 18:34
arsl400: 來 03/30 18:34
krousxchen: 我知道啊,我只是說對於一般人來說是這樣 03/30 18:47
qq320: 推特上有一些專門在研究調教AI寫實影片的 正以明顯的速度在 03/30 19:17
qq320: 進步中 目前寫實的K-pop跳舞短片 已經可以做到幾乎沒有跳圖 03/30 19:19
qq320: 接縫的程度 但是很耗功夫調教跟吃背景(不能太複雜) 03/30 19:19
qq320: 而且這還是處在土法煉鋼的現階段 等未來更多插件或工具開發 03/30 19:21
qq320: 出來 做出好成品的門檻一定會愈來越低 03/30 19:21
SALEENS7LM: 做可以啊,阿就爛又麻煩就是 03/30 19:26
s9006512345: 現在ai動畫真的要很好看的話,差不多跟直接拿mmd做 03/30 19:58
s9006512345: 一樣麻煩,節省的也只是渲染環節,而mmd的渲染早就 03/30 19:58
s9006512345: 有一堆大佬弄好新手灌一灌就有80分。 03/30 19:58
s9006512345: ai動畫還是初期,再等兩個月再回來問看看吧 03/30 19:58