精華區beta C_Chat 關於我們 聯絡資訊
: → lordmi: AI臉是有staff在後台控制的,即時擷取目前還不夠 絆愛的表情應該不是後製出來的。 請看下面的影片 https://www.youtube.com/watch?v=X9AR0vyOQSw
這是去年三月的AnimeJapan 2017,絆愛在現場和觀眾互動的攤位, 當時絆愛在日本完全沒有知名度,所以攤位前幾乎沒有人, 絆愛必需經常和現場路過的遊客搭話,請他們過來和自己玩遊戲, 飄溢著一種尷尬的悲壯感XD 影片是一位韓國的絆愛粉到日本拍攝的,當時絆愛在韓國反而比較名...... 可以看到影片48秒左右的時候,絆愛露出的ジト目(半目)表情, 這是實時反應出來的,不是後製調整出來的, 也不太可能是由另一位工作人員來按下控制表情的按鈕, 因為現場無法預測回答的語句和語氣,不可能預測該用什麼表情來回答才好。 唯一有可能實時按下控制表情的,只有絆愛自己, 但是要一邊流暢地回答觀客的問題,一邊記著要按下哪一個按鈕, 這是非常困難的,而且影片看到絆愛的雙手也沒有出現額外的控制動作, 所以絆愛的表情應該是用某種方法直接捕捉到的。 這是比較早期的影片,後來絆愛的動作捕捉還有改進, 現在的流暢度和延遲感都比那時好很多, 看現在的直播會更明顯。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 13.78.125.167 ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1516978734.A.760.html
Xhocer: 現在辦互動的話要到大舞台了 01/26 23:00
as3366700: 韓粉投資成功 01/26 23:02
anumber: 不就facerig這種技術 阿婆也有搞animoji 01/26 23:04
jimmycool: 滿多paper在做這種事 e.g. 01/26 23:10
LiNcUtT: 我也認為是這樣,AI的表情比其他VT生動且自然 01/26 23:12
LiNcUtT: 但肢體上就沒特別好,不只手指,她手臂其實也常骨折 01/26 23:13
LiNcUtT: 一般VT的表情擷取幾乎都是用facerig,但AI的我猜不是特別 01/26 23:16
LiNcUtT: tune過,就是用了非facerig的軟體來搞 01/26 23:17
as3366700: 可以抹殺一個人存在的背景,用出什麼超常規技術也是很 01/26 23:18
as3366700: 合理的 01/26 23:18
togs: 絆愛不就是真實存在的AI? 01/26 23:18
guogu: 手臂那些很困難 因為3D模組的身體比例會跟真人有差距 01/26 23:21
LiNcUtT: 但相比之下未來明就"比較"少出現肢體骨折的現象 01/26 23:22
a62511: 骨折的AI醬 01/26 23:45
a62511: https://imgur.com/VQLINAj.jpg 01/26 23:45
kamir: 未來明的模型一定有黑科技 01/27 00:00
zop: 如果以動作來看,我看是有個人穿動態衣即時偵測 01/27 00:08
zop: 人體跟電腦動畫繪圖最大的不同就是會有細微自然的顫動,人不 01/27 00:09
zop: 會動一隻手就只有動一隻手,而是全身或多或少全都在動,AI很 01/27 00:10
zop: 明顯不是動畫操作,穿動態衣跟臉部偵測,配上臉部表情篩選, 01/27 00:10
zop: 會比製作動畫來的快速準確。 01/27 00:11
LiNcUtT: VT大多都是用動態偵測啊,很少用動畫的吧? 01/27 00:15
LiNcUtT: 一般都是用Neuron這套,不過未來明的感覺不太一樣 01/27 00:15
LiNcUtT: 搞不好有穿動態衣(高價解),其他的可能就不一定了 01/27 00:18
LiNcUtT: 便宜的做法是用wii remote,Kinect之類的 01/27 00:19
kamir: 用Wii Remote像是野良猫那樣吧,不是很自然。 01/27 00:21
LiNcUtT: 對阿,但是建構成本很低,一般個體戶都是用便宜版的 01/27 00:23
LiNcUtT: 像上篇提到的最低價作法25萬羊,其中Neuron就佔20萬 01/27 00:24
LiNcUtT: 剩下的就facerig,wii remote這些,不然5萬根本搞不出來 01/27 00:25
tw15: 我非常在意1:33秒的拍手是穿過去的XDD 01/27 02:20
Siu: 戴頭盔玩BIO7還能眼睛有變化 01/27 17:51