→ xbit: ai漫畫指日可待... 03/14 16:38
推 gn00851667: av動畫指日可待... 03/14 16:49
→ bluejark: 這個算AIGC嗎 不是用3D替代嗎 03/14 16:54
推 StarTouching: DeepFake進階版 水伊步 in av 指日可待 03/14 16:56
→ ZMTL: 一個是要看input是一張2D圖還是3D Model,不過這種替換其實 03/14 16:59
→ ZMTL: AI應該也"算"了不少東西出來,總之還是早期公開,可以再看 03/14 16:59
推 Vulpix: 如果跟openpose editor一樣,那還是要人來捕捉。可是這幾 03/14 16:59
→ Vulpix: 乎可以取代動作捕捉吧。 03/14 17:00
→ bnn: 到時就是用無限擬真的3d真人模型去替換掉捕捉動作的演員 03/14 17:01
推 n20001006: 那種自製的小成本電影感覺可以用到 03/14 17:01
→ bnn: 至於是被FBI抓走還是被300萬不好說 03/14 17:02
→ ZMTL: 不是啊,用模型幹嘛,用這替換就是為了用人直接拍攝方便XD 03/14 17:02
推 labbat: 不看好,缺乏IP支撐商業模式那只是大型藝術創作 03/14 17:02
→ ZMTL: 你用3D模型input到一個擬真場景那跟直接做沒啥分別 03/14 17:02
推 StarTouching: 電影還不如動補直接套到3D模型上 03/14 17:02
→ StarTouching: 都是要真人演了 和動補差不多 03/14 17:03
→ ZMTL: 我覺得重點在一般家用電腦使用者就能做到不用依賴器材設備 03/14 17:03
推 justwedave: 算啊 先轉depth再生成啊 3d還要建模 03/14 17:03
→ ZMTL: 做出動捕的效果,哪怕是下位替代或陽春版都沒差 03/14 17:03
→ StarTouching: 這個功能比較像deep fake 讓你把現有影片轉成3D 03/14 17:03
→ ZMTL: 可能幾個高中生大學生就能拍出3D虛擬角色in現實的動畫片 03/14 17:04
→ StarTouching: 拍成動補資料還不用受限於場景 可重複利用 03/14 17:04
→ ZMTL: 作為劇本的早期demo應該也不錯 03/14 17:05
推 Vulpix: 如果可以即時的話,那元宇宙…… 03/14 17:05
→ ZMTL: 在我眼中AIGC的技術都是為了完成元宇宙的前置作業,說吹完 03/14 17:06
→ ZMTL: 元宇宙吹AI、元宇宙沒搞頭的在我看來都...XD 03/14 17:06
→ ZMTL: VR現在推不起來是因為遊戲少,遊戲少是因為開發成本高玩家少 03/14 17:07
→ ZMTL: AIGC如果能大幅降低製作成本呢 03/14 17:07
推 devidevi: AV換人指日可待 03/14 17:21
→ Makeinu: 阿不就只是不用綠幕的motion capture 03/14 17:24
推 Vulpix: 我自己是討厭那個「元」宇宙的啦。不太懂他優點在哪。 03/14 23:46