推 sheng76314: 已经有了 03/30 17:56
→ Owada: 已經有了 03/30 17:56
推 allanbrook: 吹的會跟你說很快啦 一兩年啦之類毫無建設性的幻想假 03/30 17:56
→ allanbrook: 設 03/30 17:56
推 shawn1028: 不是早就在用了嗎 03/30 17:56
→ Owada: 你動畫就是好幾張原畫連續播放 03/30 17:56
→ eva05s: 已經有了,記得已經可以把真人畫面直接轉動畫 03/30 17:57
→ Owada: 看上去很怪是很怪 但是要論有沒有是有的 03/30 17:57
→ allanbrook: 現在ai動畫的邏輯大部分是批次處理影格加上濾鏡式的 03/30 17:57
→ allanbrook: 方式 03/30 17:57
這樣的話,還不是我想像中直接用Ai作畫的方式直接用咒語請Ai畫
不過看到Ai發展的速度,說不定還真的很快就做出來了
因為Ai繪圖跟ChatGPT也是突然就出來的東西,說不定已經有人在後面做了
→ acininder: txt2video學術進度上的確是約落後1-2年左右 03/30 17:58
→ allanbrook: 除非有新的處理方式 不然這個方法要做你平常看的那種 03/30 17:58
→ allanbrook: 動畫 工太繁瑣了 03/30 17:58
→ acininder: 現在還在dalle1等級的小解析度上發展 03/30 17:58
→ bluejark: 已經能做了啊 只是做的好的的不多 03/30 17:58
→ astinky: 現在就是動新聞水準的程度 03/30 17:58
→ acininder: 隨著controlnet的進展 出現了另一條新路 03/30 17:59
→ allanbrook: 好看的幾乎都是已存在影片的濾鏡處理的感覺而已 03/30 17:59
→ allanbrook: 但AI的可控性就沒有那麼精準 03/30 18:00
→ acininder: Corridor Crew有在實作diffusion based的動畫短片 03/30 18:00
→ acininder: 剛講完就有人貼了 那我就不贅述了 03/30 18:01
→ allanbrook: 上面那個影片就很明顯 你就是要有原始的檔案 03/30 18:01
原始的檔案?比如說像是動畫的分鏡稿嗎
→ acininder: 純粹的txt2video可以追meta和google的進展 03/30 18:02
→ acininder: 這兩家走最前面 03/30 18:02
推 allanbrook: 不是 就是要嘛實拍影片 要嘛3d動畫 只靠分鏡他是不會 03/30 18:04
→ allanbrook: 動的 03/30 18:04
→ astinky: 原始的檔案就是指已經完成的動畫影片,丟給AI過個水就叫 03/30 18:04
→ astinky: AI製作的動畫這樣 03/30 18:04
→ acininder: 舉例來說你用戀活的骨架擺出一個短片後用diffusion渲染 03/30 18:04
→ allanbrook: 或是手繪動畫 總之要是影片 03/30 18:04
原來如此,不過也是可以減低不少成本了
推 acininder: 如果你想要的是 寫一個劇本大綱 然後自動生成影片 這 03/30 18:06
→ acininder: 類的還在低解析度發展 google前陣子的dev會議有展示 03/30 18:06
對動畫產業來說,用分鏡稿直接生成應該對他們來說比較容易
推 abccbaandy: 先畫本本再說吧...動畫也太早 03/30 18:06
→ allanbrook: 但認真來說這個方向要創作新內容我覺得完全是脫褲子 03/30 18:06
→ allanbrook: 放屁 03/30 18:06
→ abccbaandy: 不過韓國條漫感覺有些像AI做的,劇情、畫面都怪怪的 03/30 18:07
→ bluejark: 用controlnet線稿還是骨架也能做但他會亂生圖 03/30 18:07
→ abccbaandy: 然後狂出新作 03/30 18:07
→ bluejark: 網路上可以看到很多垃圾動畫會一直亂跳圖的 03/30 18:08
我覺得這就是Ai動畫要解決的,就是每一張畫之間要有關聯性
而不會一直變來變去
推 acininder: Google展示的一段敘述文章 然後產生約一分鐘的影片 解 03/30 18:09
→ acininder: 析度跟openai的初代dalle差不多 初代到今年約兩年 當 03/30 18:09
→ acininder: 時dalle剛出時完全沒人料想到解析度和品質的進展會如 03/30 18:09
→ acininder: 此爆速 03/30 18:09
→ acininder: 所以要我推估的話 未來一到兩年的確可能出現初具雛形 03/30 18:11
→ acininder: 的可用txt2video 而不是現在的拼接渲染歪路 03/30 18:11
那有沒有用分鏡稿的方式?
※ 編輯: krousxchen (1.170.17.144 臺灣), 03/30/2023 18:12:22
→ acininder: 因為這技術是已經存在且有持續在發展的 03/30 18:11
→ acininder: 在txt2video解析度提升至可用前 應該是controlnet bas 03/30 18:13
→ acininder: e的作法會先支配領域一陣子 03/30 18:13
→ acininder: 分鏡稿的方向就跟現在controlnet style比較接近 03/30 18:13
→ acininder: 兩大路線之爭 img2video 還是txt2video 03/30 18:14
→ acininder: 都有機構在做 03/30 18:14
→ acininder: 現在純img2video已經可以做到類似哈利波特裡報紙的那 03/30 18:15
→ acininder: 種感覺 03/30 18:15
→ acininder: 機構展示上像是讓名畫動起來 03/30 18:16
噓 arsl400: 不要瞎掰好嗎?影像處理領先語言處理幾十年,什麼突然出 03/30 18:34
→ arsl400: 來 03/30 18:34
→ krousxchen: 我知道啊,我只是說對於一般人來說是這樣 03/30 18:47
推 qq320: 推特上有一些專門在研究調教AI寫實影片的 正以明顯的速度在 03/30 19:17
→ qq320: 進步中 目前寫實的K-pop跳舞短片 已經可以做到幾乎沒有跳圖 03/30 19:19
→ qq320: 接縫的程度 但是很耗功夫調教跟吃背景(不能太複雜) 03/30 19:19
→ qq320: 而且這還是處在土法煉鋼的現階段 等未來更多插件或工具開發 03/30 19:21
→ qq320: 出來 做出好成品的門檻一定會愈來越低 03/30 19:21
→ SALEENS7LM: 做可以啊,阿就爛又麻煩就是 03/30 19:26
推 s9006512345: 現在ai動畫真的要很好看的話,差不多跟直接拿mmd做 03/30 19:58
→ s9006512345: 一樣麻煩,節省的也只是渲染環節,而mmd的渲染早就 03/30 19:58
→ s9006512345: 有一堆大佬弄好新手灌一灌就有80分。 03/30 19:58
→ s9006512345: ai動畫還是初期,再等兩個月再回來問看看吧 03/30 19:58