看板 movie 關於我們 聯絡資訊
首先 發這篇文章前 我個人要感謝 Jotarun 兄 因為某種私人原因 所以我把我之前 Po 的文章砍掉 現在還在 SYSOP 板申請回復 (不過處理速度實在是 ... 唉 也許我申請方 式錯誤吧 :p) 以下為本文 阿凡達這部電影 如果以 3D 片的外在來看 影片長度 / 畫質的細膩程度 (無 "粗糙" 之超高解析度) / 第一部 3D 實拍 + 3D 全 CG 影片 等等理由 雖然也許是可以稱的上 "劃時代" 或是 "電影革命" 但光以這些廣告詞很難說明阿凡達的成就 而阿凡達真正的 成就不僅是 3D 的 "呈現方面" 有許多 拍攝/製作 的方法 與一般傳統 CG 不同 是故 本篇主要討論 阿凡達 跟 其他 3D 電影的異同 (下列亦均只用 CG -> Computer Graphic 因 CGI 這詞 老是會讓我聯想到以前的 Common Gateway Interface :p) 首先 如果只想看所謂的 "體感 3D 電影" 阿凡達顯然會讓許多人失望 請記得 阿凡達 =不是= "體感 3D 電影" <重複 N 次> :) 在 阿凡達 的拍攝過程中 所用到的許多技術均包含現有與特有(詹導個人非常機車要 求下 相關各團隊合作研發成功的) 以下先介紹比較常見與傳統 CG 通用的部份 : 1. 人物建模 : 阿凡達的人物 3D 建置 是利用通行已久的 Light Stage 技術 將目標 標對象 360 度高照度下拍出各角度完整影像 (在此的目標多指 '人') 之後經過標記與微調後 讓程式自動建模與貼圖 (延伸閱讀 板上 puffdadboy 兄的大作 #1BG3fIU1) 2. 一般場景 : 阿凡達的場景跟其他傳統 真實/虛構 混合的影片一樣 大量使用藍綠 幕 演員在真實佈景中演出 而需要利用 CG 的部份則全部貼上藍綠幕 (延伸閱讀 阿凡達內部人員拍攝過程流出影片) http://www.youtube.com/watch?v=j4HZ6OEXhXo&feature=PlayList&
p=EDFBA16DEE5E14C0&playnext=1&playnext_from=PL&index=3 ( 短網址 http://ppt.cc/Z0MJ ) http://www.youtube.com/watch?v=FvtQ6bF_UlU&
feature=player_embedded ( 短網址 http://ppt.cc/VcP9 ) 3. 納美人 : 阿凡達 與 那美人 的人物演出 也是用現行 Motion Capture 技術將演 員的肢體動作記錄下來(但完全沒有使用到所謂的藍綠幕) 後置處理 我 們可以發現演員的衣服上有許多 定位點 這是 I.L.M 特效公司的專利 能精準的將動作反覆比對運算 達到近乎百分之百的動作補捉 (利用多 部攝影機的角度貼補技術 帶入電腦直接算出物件 3D 之模組 可謂目前 之翹楚 <下面花絮會拍到本項技術>) CG 化妝技術也是行之有年 像是神鬼奇航的 Davey Jones(深海閻王) <話說回來 還不都是那 "幾" 家特效公司 :p> (延伸閱讀 咕嚕的 關節/動作架構 深海閻王的 動態截取/CG 化妝) http://www.youtube.com/watch?v=ZmP1YojJjXo&feature=related
http://www.youtube.com/watch?v=SHRfjbmR4J8 (感謝 BrokeBackM 兄)
然而 如果 阿凡達 只是這樣 那實在也沒有什麼好說的 他只是砸大錢的 "常用" 特效 大雜匯 只 "類同" 於去年幾部非常出色的 CG 特效片/動畫片 比如 2012 / 變形金鋼 復仇之戰 / 聖誕夜怪譚 等等 (個人特推 聖誕夜怪譚 光源效果做的非常之好) 非常 優異的作品 當然 至少第一次看 阿凡達 時 我也是如是想 (不過是特效 "好了點" 罷了 沒什麼了 不起 不值得特別去了解) 延伸閱讀 (2012) Autodesk 3Ds Max 2010 從無到有 http://forum.pchome.com.tw/content/74/31883 2012 特效製作原理舉例簡述 (為個人作品) http://blog.roodo.com/victorart/archives/10747653.html (變形金鋼) Transformers Exclusieve Making Of Beelden http://www.youtube.com/watch?v=pF0C59xcDdU&feature=player_embedded#
《變形金剛2》視覺特效神秘面紗大揭秘 (嗯 廣告文 :p) http://www.hot3c.com/read.asp?class=12&id=14151 目前 阿凡達 有兩個主要常被討論的 Fusion 3D 與 臉部表情/物件軌跡截取 不過特 別值得一提的 還是完整的引入 Real Time Active (一般都只稱 Real Time / RT) 概 念 這跟一般傳統 純後置 流程完全不同 不但讓拍攝所結合虛擬與真實的 動態/場景 更加的砌合 而且可以讓詹導迅速掌握拍攝狀態 這十四年的空白 詹導在其自述中提到 他用了十年左右研究思考相關技術 (當然 這很大成份是為了訪談效果 :p) -- 許多思維是互通有無的 不可將之全數歸為詹導個人的發想 -- 技術這種東西除非遇到 神人 才比較有機會跳躍式的成長 阿凡達可以說是一部努力後 成功 "開花" 的作品 拍攝的方式與技術 是許多人的努力的成果 可說是集科技的大成 創新 或是 領先 並不是我想表達的 (我有反省了 我不是業代 :p) 更不是像某些 近乎誇大 的廣告詞 所言 說阿凡達的技術領先業界 XX 年 而且重點是 -> 那 "幾" 個 所謂的 "業界" 正是阿凡達的推手群(還有更多無名英雄) 在此強調 下列這些技術 無法 嚴謹確認 與 實際分析 確切的 概念原創者 或 發明者 只是會被特別提出來 是因為這部影片 完整而有效的 實現這些概念與技術 引述 BrokeBackM 兄所言 : 「 在推動觀影大環境上, 推動 "3D 浪潮普及化的努力", 才是它劃時代的原因, 製作技術倒是還好, 大家都一直在原有的基礎概念上研發當中, 同時與時俱進」 故而這些技術的研發與善用 正是 努力 的 具體實踐 如果要給予阿凡達掌聲 對象當 然不會單是某幾人 相對於我們僅針對技術面的讚揚 絕不及對全體相關 Stuff 的努力 致意來的好 (抱歉 這邊話特多 Orz) -- 這是我特別改寫這幾個段落的原因 -- Performance Capture : 詹導覺得演員是影片的靈魂 他無法接受臉部表情純是用電腦動畫技術合 成與後置 他希望能夠真實傳達出演員想呈現的情感與靈魂 所以 阿凡達 團開發出特用的臉部表情裝置 其實 這是 ILM 的專利技術的延伸 一樣 是在臉部畫上定位點 (本例為綠點) 但不同的是 團隊針對 "臉部肌肉" 作表情補捉處理 (用以系統化表情的類別) 這部份的概念 跟現行的 The Emily Project 不太一樣 (全面補捉) 在 幕後製作花絮 中 我們可以看到演員的臉部有台掛式攝影機 將其表 情 "號稱完整" (有人說 100% 有人說 95% /.\) 補捉 而且更暴力的是 這部影片動作截取時採 "即時收音" 所以詹導在無數個宣傳影片與花絮 中不斷強調 "這不是動畫片" (Echo N 次) 而是真人的演出 Real Time : RT 概念與技術 在電影製作與許多其他行業都不是新鮮事 (早在 A.I. 人 工智慧<感謝 BrokeBackM 兄的補充> 即已實作 甚至更早的 喬治.盧卡斯 也曾提及 希望/預計 能開發整合式的技術) 阿凡達 把 RT 技術實現得非 常完整 不僅是拍攝前的討論 拍攝中的取鏡 拍攝後的前幾次需要 "現修 現好" 的後置 都應用到 RT 技術 為了求好 阿凡達相關開發了很多項技 術的大小 革新/創新 一般狀況下 Motion Capture 截取下來的資訊 主以後置合成為主 但是詹 導無法滿足這種現狀 他要求建好的 場景 / 處理中的納美人 / 其他物件 "都" (實在很機車 /.\) 能讓他 "即時掌握" 在 幕後製作花絮 我們也可 以看到 : 1. 當演員在演出時 有螢幕在追蹤他們的臉部動態 甚至很好玩的 臉部的 攝影機 (處理時為魚眼狀態) 臉上標的綠點會同步追蹤至臉部肌肉表 情的變動 (真正高精度的影像則交由後置處理) 2. 當 Jake 要剛進村落時 與即將升級成靈鳥騎士時 前往哈里路亞山脈 的上層 經過碩大橫向樹根 或是 跳躍抓住樹藤 我們現實中看到的只 是演員在佈景中跳來跳去或是對空氣做出動作 但是詹導可以透過螢幕 看到合成後的景像 (在向家園樹祈求時亦同) 3. 不管是靈鳥小模型 或是戰機小模型 看到詹導(或/與 助手) 拿著小玩 具開始移動時 除了會追縱記錄這些小模型的動態與軌跡 也可以在螢幕 上顯示出移動時的即時效果 而 "風中奇緣" 飛行的片段 更是此技術發 揮的極致 Fusion 3D : 本詞牽涉到的東西既多又雜 概念重心為 Virtual Camera 由好幾個不同 的公司團隊相互合作完成 一般當我們建模或其他任何過程中 我們常可以 利用拖曳方式或使用滾輪 來對物件放大縮小或是旋轉 本概念的想法是 : 既然我們可以做得到 RT 來結合動畫與實演 那為何不可以移動某(些)攝影 機 到想要的角度與位置 去拍攝出想得到演出效果 (目標之 大小/方向/ 角度 等等) ? 所以 在花絮中我們可以看到當演員與攝影師等專注在他們的工作崗位上 時 詹導一個人拿著一台攝影機 直盯著攝影機 "隨意走動扭動" 我們可以 清楚的發現當詹導 "扭動" 時 合成的動畫 會隨著他的動作而有所回應 而詹導不只在演員演出時這麼做 當演員結束拍攝時 他一樣會把已經處理 好的影片利用 虛擬攝影機 來呈現他想要得到的畫面 為了達到詹導想要的畫面 新一代的 Stereosoopic Camera 的開發成功幫 上了很大的忙 (Panasonic 這次押對寶了) (Fusion 3D 是很多大小專利 技術/概念 的結合 無法特別專指某項技術) 2D <-> 3D : 傳統在製作 "虛擬實景" 尤其是野外的狀況時 我們大多會使用 Vue7 之 類的軟體 來建構所謂的環境場景 但是很神奇的 阿凡達 大多數時候使用 的卻是 Photoshop / Lightroom ... 這部份當初實在超出我的理解 不過 後來我知道現在有所謂把 2D 轉成 3D 的處理程式 簡單的說將 2D 圖自動轉換成 3D 後 建模貼圖都省了 只需修一下細部 傳統處理背景時 大多是建模後拆圖 然後利用繪圖軟體(比方 photoshop :p) 繪製拆下的圖層畫好所謂的 "貼圖後" 再貼回去 近年有比如 ZBrush / Mudbox/BodyPaint 3D 之類可以對 UV 貼圖直接後置處理的軟體 但很顯然的 阿凡達的場景處置 不是以這種方式(為主) 只能說當人家正 在 "研發中" 時 阿凡達 團隊已經實現了 (目前此類軟體消耗的演算次數 非常變態) (延伸閱讀 Carnegie Mellon University 研發中的轉換軟體) Transforming a 2D image into 3D http://www.youtube.com/watch?v=VuoljANz4EA&feature=
player_embedded ( 短網址 http://ppt.cc/j_jY ) 延伸閱讀 阿凡達製作幕後花絮 相關 阿凡達 超用心的幕後製作 (小雷) http://cutelu.pixnet.net/blog/post/26236546 阿凡達 幕後製作花絮 (上面網頁中有此連結) http://www.youtube.com/watch?v=P2_vB7zx_SQ
Adobe (不是 Autodesk) 阿凡達中的製作過程 <廣告 :p> (網址有夠長 - -) http://tv.adobe.com/watch/customer-stories-video-film-and-audio/ adobe-and-avatar/ (短網址 http://ppt.cc/OF1k ) 阿凡達 拍攝技術面花絮 http://www.youtube.com/watch?v=OJ1JzYPjcj0&feature=sub (感謝 Jotarun 兄提供)
阿凡達 大全 (雜七雜八) http://www.hd.club.tw/archiver/tid-1919.html 最後 再次感謝 Jotarun 兄 "沒有你就沒有這篇文章" 特別感謝 BrokeBackM 兄 指正了我很多觀念 讓我受益良多 至於原先的有 Po 的已知使用之商業軟體列表 我就不再發了 感覺有廣告之嫌 (其實 前面內文 <含連結> 早已廣告了 Orz) -- 修改原因 : 特堆 -> 特推 / 聖誕夜驚魂 -> 聖誕夜怪譚 修改 Virtual Camera 相關片段 (感謝 Titaandyo 兄) http://ppt.cc/SAvMhttp://www.youtube.com/watch?v=SHRfjbmR4J8
補充 Real Time 說明第一段 (此兩項修正感謝 BrokeBackM 兄) 修改 本詞牽涉到的東西既多又雜 概念重心為 ... (感謝 BrokeBackM 兄) 修改 劃時代 的意義 (感謝 BrokeBackM 兄) 修改 第一段 不通順的地方 (改寫應該還是會持續進行 <爆>) -- SOB Pack 已於日前 Release 出 gcc 4.x 版, 歡迎還活在 Maple 2.36 SOB Version 回憶中的朋友們一起來討論下列相關 : 1. maple 2.36 2. SOB 3. Atlantis Version telnet to bbs.bsd.com.tw Boardname : ATSVersion -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 203.70.65.28
Titaandyo:技術無可挑剔的高!! 怎麼沒有說詹導扭來扭去捕捉鏡頭的 01/23 09:40
Titaandyo:地方XD? 01/23 09:40
Dopin:哦 我寫的好像容易誤解 我改一點 Virtual Camera 的敘述 :) 01/23 09:49
iaminanl:推推 01/23 09:49
smaljohn:借轉 01/23 10:44
widec:特推! 01/23 10:58
shadowmoo:推認真 01/23 12:07
doctor2tw:棒, 01/23 12:13
NANJO1569:內容非常豐富的一篇文,推一個! 01/23 12:16
nick343401:原來臉部表情是這樣弄的喔!! 01/23 12:29
littlegreen:我喜歡 01/23 13:34
Davidgood:推強大的整理!! 01/23 13:47
honny7410:推認真文! 01/23 13:51
BrokeBackM:2001年AI人工智慧不是早就提出了現場RT特效預視概念了? 01/23 14:16
是的 而更早前 George Walton Lucas Jr. 即已提出此概念
BrokeBackM:http://www.youtube.com/watch?v=H3jnx3mXhVo 這個才是 01/23 14:40
BrokeBackM:Davy Jones正牌幕後製作內容,您貼的好像的業餘影迷自做 01/23 14:41
是的 因為他把所有的製程都拍成列說明 我覺得很完整就採用此影片 另外像 2012 特效製作原理舉例簡述 也是個人作品 如果 B 兄有此疑 慮 我換成您的下述連結 並在 2012 後加註為個人作品
BrokeBackM:PhotoShop發明人John Knoll的深海閻王是全CG,包括眼睛 01/23 14:43
BrokeBackM:+參考資訊http://www.youtube.com/watch?v=SHRfjbmR4J8 01/23 14:45
感恩 已改為此連結
BrokeBackM:http://www.ew.com/ew/article/0,,334862,00.html 這個 01/23 14:58
BrokeBackM:就是2001年史上首次Real Time虛擬場景拍攝,詹導融合了 01/23 15:00
BrokeBackM:之前ILM的各項創新概念與技術,因應需要一起使用到片中 01/23 15:01
BrokeBackM:但目前有印度MIT高材生,用便宜攝影機和技術,直接捕捉 01/23 15:03
BrokeBackM:在這裡:http://www.youtube.com/watch?v=qC3H3JOtvSs 01/23 15:04
基本上這位印度神人不只是能力超人 胸襟也是聖人 因為某些程度上說 我是使用 FSF 的 end user 他的技術不只是在現實中許多面向悄然實現 連 Avatar 觀影時我又看到一部份同樣概念的動畫呈現 實在很感動 見 拙作有雷心得文 #1BIBsfNm (自我廣告 :p)
BrokeBackM:AI的Real Time Virtual Set+深海閻王iMocap=阿凡達 01/23 15:15
嗯 這個 ... 也不能就這麼的說啦 ^^; 因為 Avatar 已經對這些技術與 概念又做了一次整合與革新 基礎精神確實是一樣的 但實作上許多地方 倒是不盡相同 但嚴格說回來 說是換湯不換藥也不為過 (爆)
Dopin:嗯 RT 不是首次 另外第六感科技我的板上文有提到 #1BIBsfNm 01/23 17:37
Dopin:所以文中只提到引用 RT 概念很可怕 嗯 B 兄我再修改更清楚點 01/23 17:39
Xenomorph:推 01/23 20:33
※ 編輯: Dopin 來自: 203.70.65.27 (01/23 20:55)
BrokeBackM:當年AI推出時,包含EW/Cinefex甚至是ILM網頁,都有提到 01/23 20:56
BrokeBackM:Real-Time on-stage virtual Set的第一次實際運用執行 01/23 20:58
BrokeBackM:http://www.ilm.com/inside_timeline.html 看2001年囉 01/23 21:00
BrokeBackM:或許概念發想只放在心中很難說誰先,但先付諸執行鋪路 01/23 21:04
BrokeBackM:是半退休中的老將丹尼斯穆朗(史丹溫斯頓先走一步了>"<) 01/23 21:11
BrokeBackM:像Morph這個專有名詞是ILM發展並首先在風雲際會中執行 01/23 21:12
BrokeBackM:後來Pacific Data Image承認運用Morph概念做了M.J.的MV 01/23 21:13
BrokeBackM:所以大都是累積前人的創新路程再融合增強,因應需要開發 01/23 21:16
BrokeBackM:只是iMocap很適合有要在現場實景拍攝加入CG角色使用 01/23 21:17
Dopin:嗯 B 兄所言甚是 唉 有時還有西瓜效應 最後實作結果決定許多 01/23 21:17
BrokeBackM:和阿凡達與AI裡又多了大量Virtual Set,加RT粗略CG角色 01/23 21:18
Davidgood:高手過招XD 01/23 21:18
BrokeBackM:單純資訊交流啦,像當年是ILM還是CFC做了第一個數位合成 01/23 21:20
Dopin:iMocap 常被細修至許多特用需求 但本質真的還是 iMocap 這種 01/23 21:21
BrokeBackM:都很難分,因為概念的提出和執行,時間幾乎同時,所以並列 01/23 21:22
Dopin:軟體思維應該已經是架構基礎了 他本身又有 SW/HW PnP 概念 01/23 21:22
Dopin:實在是個很暴力的東西 只能說真的 世界前幾的超強特效公司 01/23 21:23
BrokeBackM:CFC= Computer Film Company,也有參與這次阿凡達的製作 01/23 21:23
Dopin:怎麼改 結果還是自己的東西 (不覺有種感嘆 ...) 01/23 21:24
Dopin:嗯 不喜歡媒體老說詹導團隊(最近參與開發的一個個跳出來 :p) 01/23 21:26
Dopin:但真正的原因是我不夠用功 沒爬文 (咖擦 Orz) 01/23 21:27
Dopin:致 大衛好 兄 : 高手是 B 兄 我是亂發文丟磚塊的 (跳跳) 01/23 21:29
BrokeBackM:首代實驗執行效果不會最好,後來才越改越好,總要有"開始 01/23 21:32
Davidgood:我很久以前就知道斷背山大是視效高手了XD 01/23 21:35
BrokeBackM:資訊交流啦,其實詹導之前就常和ILM老將合作,會交互影響 01/23 21:39
Dopin:我是在想 要不要把 這是詹導超越一般人常識的發想 這句刪掉 01/23 21:40
BrokeBackM:WETA成立前,ILM曾經是協助成立的顧問角色,Joe Letteri 01/23 21:40
Dopin:畢竟如 B 兄所言 Avatar 基本上算是一部 "開花/剪綵" 的作品 01/23 21:40
BrokeBackM:在去Weta之前,是從ILM出身的,是John Knoll的子弟兵之一 01/23 21:42
BrokeBackM:當然也是有加入基於先前概念上,新發展出來的技術並結合 01/23 21:43
BrokeBackM:順便分享一下最近幾年被廣告用到爛的老梗"Morph"演進: 01/23 21:46
BrokeBackM:Willow: http://www.youtube.com/watch?v=uLUyuWo3pG0 01/23 21:50
Dopin:哇塞 我資訊太舊了 我還停留在 human Image morphing (飆淚) 01/23 21:52
Dopin:我開始有點想舔 B 兄的腳了 :p (狗腿 ~~~) 01/23 21:53
BrokeBackM:後來發展 http://www.youtube.com/watch?v=anmwP_3kzgs 01/23 21:59
BrokeBackM:但Willow(風雲際會)是首次執行(實驗)的Morph,效果不優 01/23 22:01
BrokeBackM:上面新聞片段看到Steve Williams我快掉淚了,退休不見了 01/23 22:08
shazam:什麼是豆知識? 01/24 13:29
BrokeBackM:Dopin先生的資訊分享,這個沒有必要給噓吧,他也算中肯 01/24 14:41
BrokeBackM:約翰諾爾 http://www.youtube.com/watch?v=_URxl08jEZc 01/24 14:42
Dopin:哦 http://www.google.com.tw/ 搜尋 什麼是豆知識? 第一篇 01/24 15:29
Dopin:就有 s 兄要的答案 :) P.S. 豆知識絕對不是因為我是豆餅(爆) 01/24 15:31
leila:有看有推! 01/24 21:17
Jotarun:少見 專業文章應該要m阿 :D 01/27 15:14
ACGamigo:大推!相見恨晚啊! 01/27 18:18
※ 編輯: Dopin 來自: 203.70.65.28 (01/27 21:26)
cheno6604:專業認真推 01/28 01:06
oj113068:我希望你加標點....= = 01/29 00:10
jeromeshih:推 02/03 02:53
loi45678:這根本是論文規格啊!! 認真推!!噓文的人也太那個了吧= = 07/31 01:56