2011年12月21日 星期三

The Foundry Mari 1.4新增功能介紹


適合大專案, 跟的上時代的軟體, 3D藝術家的最佳繪製工具! 從根本上做改良, 達到當今VFX材質與matte painting藝術家的需求, MARI是3D數位繪圖工具能夠革新您的工作流程, 能夠處理大量的像素MARI讓藝術家能夠更專注於繪製細節, 多圖層材質, 以流暢自然的方式直接繪製到3D模型上面 .

MARI 1.4新增了Adobe® Photoshop® layered PSD輸入與導入出功能, OpenColorIO triplanar的投影與masked filters. 這樣的設計能夠加速流程, 標準化色彩管理, 且更加易用, 且更彈性MARI 1.4是您工作流程裡面, 每位藝術家的最佳工具!

一開始的時候為了要解決困難VFX電影遇到的問題, MARI擅長在大量的資料, 也能看到實際工作面一般難以察覺的需求.

快速, 有效, 能夠產生最高品質的3D結果. MARI使用背景資料管理, 讓美術能夠一次就檢視全部的資料, 讓你更能根據環境來工作, 同時間檢視與繪製多個模型!

適合大專案, 跟的上時代的軟體, 效能上勝過其他的材質繪製軟體. MARI具有資料組, 能夠處理超級高解析度的紋理, 與上百萬個polygon, 讓你的流程變得更加簡單. MARI可以在Linux上執行, 支援業界標準Python scripting與C API, 因此能夠近介面整合, 自動化與客製化. 使用Open ColorIO做為色彩管理. 直覺又具彈性, 容易學習. MARI提供"paint and bake"的手法, 專為藝術家所設計, 強大的影像管理工具, 可客製化的選單系統, 與Photoshop的整合, 支援Adobe® Photoshop® layered PSD import/export.

實際用在真實的專案上MARI以成為各大CGI專案的重要軟體, 例如大製作電影阿凡達 與第九禁區 !

MARI 1.4 Feature Video - Full Trailer from Hieronymus Foundry on Vimeo.


[相關文章]

MARI 1.3新增功能介紹

2011年11月30日 星期三

NUKE產品經理談NUKE的未來


在這次的訪談裡, 我們專訪Jon Wadelton---這位The Foundry 公司 NUKE產品經理. 這次專訪將專注在The Foundry這家公司與NUKE 這套強大的合成產品, 提供無可取代的速度與最高等級的功能, 開啟了桌上機市場. 有了NUKE, 你就可以用新的攝影機技術, 產生VFX特效, 3D資產與粒子系統. 我們要感謝Jon提供他與The Foundry團隊的寶貴時間分享他的經驗. 文章下面你可以看到NUKE的影片, 關於他在阿姆斯特丹的IBC 2011活動介紹NUKE 6.3的演講.

Q: The Foundry是一家具有世界級的視覺與影像處理科技的公司, 請問這家公司是怎樣成立的, 原因是?
A: The Foundry是在1996年成立 , 由電影特效專家Bruno Nicoletti與 Simon Robinson一起成立的. 當時並沒有任何Flame或是其他高階2D軟體的商業外掛, 察覺到這市場上的缺口, The Foundry公司開始賣這些後製團隊需要的外掛工具. 他們是第一個研發Sparks在Discreet Logic’s Flame system平台上的公司. 從那時開始, 公司就開始成長, 持續地研發屢屢獲獎的技術科技, 填補市場上消費者的需求空缺!

Q: 從1996年公司成立開始到現在, 你認為改變最多的是什麼?
A: 這家公司是爆炸性地成長, 一開始的時候是50名員工到2009年增加到130人. 這家公司的成功 根本原因是持續地發揮原始的想法, 填補市場空缺, 提供這樣的產品幫助使用者, 不論這市場上的空缺是合成, 繪圖或是3D立體影像. The Foundry持續地改變特效產業的遊戲規則.

Q: 貴公司獲得AMPAS Sci-Tech Award®的科技獎項, 你為讀者解釋一下嗎?
A: 在2007年, 美國影藝學院頒發了科學技術獎項(Sci-Tech Award®)給The Foundry研發團隊, 針對FURNACE這套影像處理套件. 而我們公司被廣為使用的, 高階合成系統NUKE也是根據這項獎項的技術所寫. Optical flow 或 motion estimation這相關領域是The Foundry公司, 對新一代演算法的先驅技術, 能夠追蹤frame上的每個像素, 並追蹤下一個frame的像素.

從2002年開始, The Foundry的FURNACE 首次地將這演算法加到這強大的工具組裡面, 裡面有改變時間快慢的KRONOS工具. 很快地成為市場上面, 快動作與慢動作的領導科技. 今日FURNACE裡頭有超過30個外掛, 利用到這項動作估計(motion estimation)的技術, 提供視覺特效藝術家廣泛, 又精密的外掛, 能夠處理各種的合成問題, 例如wire, 移除rig, 減噪, dust bustin,g 影像穩定化, super resolution, auto rotoscoping, 影像分割, 移除閃爍, 影像縫合, 添加動態模糊, 追蹤, 產生depth mattes...等等的技術. The Foundry是英國唯一一家公司受頒2006年的奧斯卡獎, 也是少數四家獲得Scientific and Engineering Award Academy Plaque®的獎項. FURNACE對這項令人嫉妒的獎項感到光榮, 這套軟體也被用在許許多多知名的電影裡面, 例如: 007首部曲:皇家夜總會, X戰警3:最後戰役, 達文西密碼, 巧克力冒險工廠, 蝙蝠俠:開戰時刻, 金剛, 魔戒三部曲, 海神號, 超人再起.

Q: 請問開發NUKE花了多少時間? 怎樣激發你靈感的? 有多少人參與這項開發計畫?
NUKE最早的時候, 大約是在1993年, 於Digital Domain公司所寫, 是他們的公司內部的合成工具. 一開始的時候, 只是由程式指令列所執行的工具, 可以讀取script來處理合成的操作, 我認為最早的功能是在1994年的電影魔鬼大帝:真實謊言, 那個時候就開始寫的, 從那時開始, 這套軟體就不斷演進. 到了1997年, Digital Domain公司製作鐵達尼號的時候, 就出現了基本的圖像節點樹, 就跟你看到現在的NUKE節點很相似. 2007年the Foundry公司併購了NUKE, 並且進行重大更新, 包含了對python語言的支援, 以及Qt的介面, 從那時開始NUKE就變成了電影業界的合成軟體的標準了. 很難說這些年有多少人參與NUKE研發, 很多人都有貢獻!

Q: NUKE被用在很多大型的電影專案, 例如阿凡達, 第九禁區, 黑暗騎士. 請問哪部電影你感到最驕傲?
A: 不論是哪部電影或是廣告, 有用到NUKE的我都感到很驕傲, 我很驚訝用戶能夠把NUKE發揮的這麼淋漓盡致, 產生如此驚人的效果. 我想我目前想到的是有一次參觀Framestore (歐洲最大的視覺特效電腦公司)的時候, 其中有個hero sho,t 他們所有的粒子特效都是用NUKE 6.3所製作的, 那畫面真的很驚人, 我們花了很久時間讓粒子特效能正常的用作, 很高興當我們把工具交給這些很有天份的藝術家, 他們能夠做出這麼棒的效果.

Q: 你在網頁上說NUKE是世界上最強大的節點合成軟體, 你能解釋一下嗎?
A: NUKE在一開始設計的時候就是要能夠用在大型專案(scalable)且功能強大, 能夠處理32bit得浮點影像像素資訊, 這表示你可以處理影像, 用各種的特效節點來處理, 也不會讓影像品質衰減, 變質. 而scalable也表示了影像的大小與合成樹的大小, 我們常常看到NUKE專案用了100個甚至上千個影像處理節點, NUKE對於大型影像可以處理的非常好, 大型的50K的matte paintings 投影到3D幾合體上不再是問題了!

Q: NUKE有哪些獨特的科技?
NUKE具有強大的多通道流程, 讓你可以同時有多個影像串流, 在合成樹上同時進行, 用在3D立體影像處理也行. 多個立體影像能夠被導向單一個合成樹, 這讓整個流程變得更加直覺, 不會有卡卡的感覺. NUKE也有新的Deep合成系統, 這項科技已經被Weta Digital工作室用在電影阿凡達上面了. 傳統上當兩張CG圖像要合併的時候, 其中一張CG影像必須要有渲染holdout才行. 你可以想像一下, 電影阿凡達裡面, 有角色跑向樹林裡面, 3D人員必須要渲染樹林, 然後把角色放到樹林的場景裡面.

為了做出如此效果, 他們必須要渲染出一張---洞 (hole) 或是稱為holdout, 用來放置角色在樹林裡面的位置, 這沒什麼太大問題, 只要你不移動角色的位置, 但是當導演要求把角色移到另外一個地點, 或是用另外一個take, 當然這就表示你需要渲染樹林一次, 其中要包含角色的holdout 在不同的位置上. 像阿凡達這樣等級的電影, 重新渲染每個frame會耗上好幾個小時, Deep compositing system解決了這個問題, 與其渲染出具有holdout的森林. 3D人員只要另外渲染出稱為Deep data的資訊, 讓合成師可以即時地把角色放到森林裡面, 你就不需要花好幾個小時來重新渲染!

Q: 最近貴公司發表了KATANA 1.0, 你什麼時候會發表新版的NUKE, 你能夠透漏一點新版軟體的功能嗎?
A: 明年的第二季會發表具有重大新功能的NUKE, 下一版的功能專注於GPU加速的影像處理, 我們會把那些需要大量電腦運算的演算法, 例如Denoise, zDefocus 與 motion estimation以GPU加速運算. 我們也希望能夠與HIERO做更緊密的結合.

Q:貴公司的合作夥伴都像是華納兄弟 MPC等等, 你們是怎樣合作的?
A:沒錯, 我們跟這些電影工作室緊密合作, 事實上大部分的產品都是由這些大型特效公司室的公司內部工具開始研發的: NUKE是從Digital Domain來的, KATANA從Sony Pictures來的, Imageworks與 MARI是從Weta Digital來的, MARI 與 KATANA這兩套軟體我們都還持續地跟Weta和 Sony持續的合作研發.

除了這些我們密切合作的夥伴們, 我們也跟其他工作室合作解決他們製作問題. 有時候這些公司會把分鏡寄給我們來看看. The Foundry公司能不能提供解決方案, 最近我們在幫 創:光速戰記, 處理一些問題. 我們知道跟客戶互動的重要性, 因為我們才會知道現場會遇到的真實問題, 而這些問題的解決方案最後也會變成我們產品將來的新功能.

Q:你未來有何計畫?
A: 確定的是, 公司的產品線要能共用資料, 例如KATANA裡面的3D算圖場景, 能夠自動地在NUKE以合成的方式重現, 或是從NUKE 去呼叫KATANA 3D 要求提供需要的pass 或matte . 我們發現這種資料交換可以節省大量的時間, 對於小型工作室尤為重要. 我們目前專注在讓NUKE能夠將來的硬體能相容運作 (future proofing) ,我們全新的‘Blink’架構, 你會在明年的NUKE看到的, 這種影像演算法讓我們能夠在任何新的硬體上面跑. 例如幾年前的CPU提供SSE的科技, 能夠讓某些演算法加速到4倍快. 許多軟體, 例如NUKE 對於這種SSE技術必須要重新改寫才能受益於這種硬體加速技術. 如果再加上GPU加速, 軟體就有三條路要走. 那麼在維護軟體上面就很麻煩! 我們新的Blink架構就是為了要解決這些問題, 我們只要把演算法寫好, 而Blink架構就能幫我們處理看是要跑CPU, SSE 或 GPU. (完)

2011年11月17日 星期四

藍天工作室採用NUKEX製作里約大冒險


藍天工作室(Blue Sky Studios)是一家贏得奧斯卡獎的動畫工作室, 是福斯電影娛樂的子公司. 當初成立的任務是要探索照片寫實的創造力, 高解析度, 以及電腦產生的角色動畫.

該工作室最新的作品是電影---里約大冒險(RIO). 這個故事是關於一隻呆呆金剛鸚鵡, 離開了他舒適的籠子, 從明尼蘇達的小鎮, 飛到巴西的里約, 他踏上了人生的旅程, 學習怎樣敞開心胸, 一路上學習怎樣享受人生. 這個專案很早就由巴西出生的導演Carlos Saldanha構思了很久, 藍天工作室給他了這個熱情的專案, 緊接在成功的冰原歷險記3:恐龍現身之後. 本片獻給Carlos的故鄉, 以及他對整片工作人員的熱情.

這個專案需要建立3D投影場景, 需要做很多合成的工作, 而藍天工作室很快就發現NUKEX很適合用來處理這項挑戰. 合成組的領導Ari Rubenstein先生扮演了一個核心的角色. 製作里約大冒險, 看看NUKEX能夠如何成為藍天工作室的頂尖合成工具!

攝影機投影(CAMERA PROJECTION)
他解釋: 一開始的時候, 我們購買NUKEX是因為它的攝影機投影功能. 有好幾次, 合成都能在一天左右把原本要耗費大量金錢的重算圖的東西用合成給修好. 我有加入過The Foundry NUKEX Beta測試, 在研發的時候就有展示這些投影的技術, 當給我們的CG主管看, 遠在荷頓奇遇記(Horton Hears a Who)完成製作前, 他們就決定購買六套的NUKEX, 所以, 我就可以利用這項技術來完成荷頓奇遇記. 當Apple公開宣佈不再對Shake提供支援以及NUKEX內部的行銷, 說服了藍天工作室, 把流程由Shake轉移到NUKEX.

在藍天工作室裡面有三個部門每天都會用到NUKEX---燈光, 合成與3D立體組, 都會利用到NUKEX在他們的流程裡面. 燈光組的流程大致是設定comp scripts從我們內部開發的CGI Studio算圖器算出來的圖層, 接下來他們就研究有哪些合成技術可供利用. 同步地, 後製照明(post-Lighting) 合成組處理那些需要吃重的合成處理分鏡, 例如客製化的轉場(custom transitions) ,大氣特效, digimatte...等等 . 最後3D立體部門, 把送來的script分成左眼與右眼算圖, 使用特殊的工具與技術 ,加強3D立體視覺的效果.

3D工作流程的整合
感謝NUKE它天生的彈性, 每個部門都能夠針對需求撰寫適合他們的工具, 能對最終流程達到很高的最佳化狀態. 藍天工作室常常用到技術都可以很容易打包然後寫成客製化工具, 只需要簡單的程式撰寫知識就可以設定好, 然後打包, 真是NUKE所提供的珍稀能力. 就我的軟體經驗來說, 這種層級的客製化幾乎需要相當能力的程式能力, 但是在這樣中小型的公司可以找到. NUKE提供很多解決方案都相當具有挑戰性, 從最簡單的到最複雜的流程都有.

"特別是, 我們已經能夠撰寫很多工具, 作為2D與3D流程之間的橋樑, 這種混合工具在藍天工作室裡面算是新的作法, 讓合成的威力又更加擴增了"---Rubenstein說.

The 3D environment這套工具是最重要也最有用的, 所提供的無數種功能, 太多應用層面可以說了. 多樣化的自動追蹤技術能夠處理很多種的articulated roto, 標準tracking與warping, 現在大部分這些東西已經不需要了, 因為攝影機投影到幾合體與bicubic cards上面. 我們所開發的工具可以依據z-depth passes來產生模型, 投影上去, 然後從攝影機算圖, 因此移除了手動追蹤與變形的需求. 為了要處理算圖錯誤與局部的顏色校正, 簡單的攝影機移動, 與微小視差, 我們課製化的multiplane工具可以用類似的手法處理大量的分鏡 .

多通道的工作流程
其他很讚的功能, 例如多通道工作流程, 讓你可以有更有效的資料組, 丟給不同的美術人員, 讓他們個別產生, 組合資產, 我們也會用動態模糊技術, 對那些無法用算圖產生的分鏡, 例如vector blur與scanline render multi-sample. 能夠使用python語法也大大增加了我們的威力, 我們開發了工具, 能夠管理網路 序列/分鏡的資料庫 frame範圍, 與其他跟分鏡有關的資料. 這些工具也會定期地查驗資料庫, 看看有沒有更新, 取代更新版本的攝影機, 或是在現有的script裡面其他的資料.

具美感的合成
NUKEX對美術人員提供甜美的功能, 讓藍天工作室能夠發揮digimatte這項技術, 我們建立了全3D投影場景, 用在整個景觀建立分鏡(vista establishing shots), 充分發揮了我們的算圖器ʻCGI Studioʼ的功能, 然後用客製的手繪功能加強細節或是FX能套用到所有的共用背景的分鏡序列上. 有很多東西需要渲染, 用了這個方法省卻了許多工, 沒有NUKEX根本不可能辦到. 這也讓我們產生客製化的渲染pass, 也就是把攝影機投影到多通道的預先算圖, 然後再重新排列, 變成特定的分鏡腳本, 也就能無痛地把這些套用到多種相似的分鏡裡面. 這節省了大量的工作, 對於像3D工作流程那樣, 不需要再計算另外一隻眼睛的畫面, 只需要插入另外一顆鏡頭, 然後渲染攝影機投影的幾合體, 也就得到了快速的第二背景, 可以用在3D立體上面了!

有很多關於3D投影的例子, 你都可以在藍天工作室的最新動畫片---里約大冒險裡面找到.Rubenstein做了基本操作的分解動作:

1)分析序列清單工作表contact sheets 分析哪幾個分鏡的背景很類似, 可以用3D投影的方式一起做掉.

2)在NUKEX裡面, 載入所有需要建立投影的相關幾合體

3)載入所有分鏡鏡頭, 用算出來的圖與幾合體來設定測試投影

4)燈光與所有的算圖pass 用在測試畫面效果上面

5) 讀取所有的算圖畫面, 預先合成, 看看哪個比較好用, 然後複製pass到多通道上面

6)設定攝影機投影, 用我們想要的視差, 邊緣細節, 與全幾合體涵蓋(full geometric coverage)

7)把所有相關的分鏡算成pre-comps, 然後把通道分開, 根據每個分鏡的master script, 建立lookDev, 然後套用到所有相關的分鏡上面, 然後取代所有的pre-comp讀取節點

跟THE FOUNDRY公司的合作
當問到他對The Foundry公司的看法Rubenstein說: 誠如我之前說的, 我職業生涯裡面從來沒有過這樣的公司, 能夠提供這們多的付出. 我在業界將近20年, 讀了趨勢雜誌, 看軟硬體的興衰, 我從來沒看過如此在技術上如此專注的公司. 每次我們與其討論的時候, 就好像智慧與科技的結合一般, 在The Foundry的研發團隊總是有辦法, 一路上提供美術所需的工具.

The Foundry公司的智囊團真是VFX業界的先鋒, 他們是核心所在. 所以我常常從他們學到靈感, 聽起來好像是吹捧他們, 但是相信我 ,我沒有拿他們的回扣. NUKEX真的是套好軟體! 我也感到十分幸運, 也很珍惜他們的努力, 我個人獲取的有利經驗, 以及無所匹敵的服務支援, 這還包括了線上論壇, 回答了全球合成愛好者的每個問題. 在別家公司, 你有可能可以接觸到95%的全球頂尖特效工作室的主管嗎?

藍天工作室採用了最新版的NUKEX, 在他們的FX部門裡創造了大量的FX特,效 用在電影冰原歷險記4:大陸飄移...以及下一部樹葉人傳奇 (Legend of the Leaf Men). 除此之外, 合成與材質部門也在仔細研究MARI, 並考慮結合這套軟體在digimatte製作的可能性. Rubenstein最後說到, 我們很期待未來與NUKEX的開與與整合, 所提供的擴充工具持續地促進實拍與VFX特效的整合, 用在動畫電影科技裡面.

2011年11月3日 星期四

OCULA 3.0新增功能介紹


經過三年的合作研發, OCULA又完成了一次重大更新!
收集現場人員的意見, 三年後, OCULA 3.0上市囉! 滿足您的需求, 這次的升級是有史以來最大的改版.

將大型3D電影製作案: 阿凡達, 創:光速戰記, 神鬼奇航:幽靈海, 變形金剛3的製作流程最佳化.OCULA提供美術人員一組NUKE工具, 幫助我們能把元素整合產生正確的3D立體效果.

OCULA 3.0是有史以來最重大更新. 3D立體在OCULA發表的這三年, 已經有很顯著的成長, 而持續地與客戶合作, 這些很有野心的3D立體電影的案子上, 提供了很不錯的機會,讓OCULA提昇效率與流程.

OCULA 3.0提供了一個全新的雙眼視差(disparity)引擎, 提供工具用來修正沒有對焦成功(mis-focused)的攝影機組, 並對立體影像進行變速(retime)的設.定 同樣地, 一組的流程修正, 明顯地改善了OCULA日常的操作, 現在所算出的效果更清晰且更精確了!

以下是新的視差對應(disparity mapping)效果案例:

OCULA 3.0 - Disparity from Hieronymus Foundry on Vimeo.

OCULA 3.0 - Disparity 2 from Hieronymus Foundry on Vimeo.

"我們一看到OCULA 3.0推出的效果就感到十分驚人, 是自OCULA 2.2以來的重大升級"
溫哥華MPC的資深合成師Jose Fernandez de Castro Heller

"我喜歡OCULA 3.0新的視差對應(disparity map)演算法, 我們測了由OCULA產生的深度貼圖, 針對實拍畫面製作了數位替身, 整個場景是一個CG的雪風暴場景, 讓特效團隊能夠在人物周遭吹出雪花, 同時還能在z-depth產生正確的holdout mattes. 我們從素材影片產生幾合體, 而不需要建立動態的替身人員"
Stereo, Dr D Studios的資深合成師Mark Van Den Bergen

OCULA可以對應NUKEX與NUKE.

2011年10月28日 星期五

The Foundry KATANA 1.0 資產與流程整合系統

發佈KATANA 1.0對The Foundry公司來說是一大里程碑. ILM與Digital Domain這兩家公司都有買KATANA的團體授權版(site licenses), 還有第三家公司也買了KATANA, 但是我們不能透漏是哪一家, 這樣一來有三家大公司都買了KATANA!

因為KATANA取自Sony Pictures Imageworks的技術, 因此有很精確的計畫推出這項產品. 雖然市面上有很多工具對於中等或是小型的公司. The Foundry還是專注於針對大型企業的市場, 但是這種狀況不會持續的.

根據The Foundry的首席執行長 Bill Collis表示: "我們認為KATANA會是對於任何以資產為基礎(asset based) 任何規模都有用的一套軟體. 目前還有某些技術上的需求, 例如工作室目前必須要提供它們自己的材質庫(shader libraries), 我們目前正在專注於讓KATANA變成一個有完整功能, 對大公司, 對小公司都有用的工具軟體"

大約兩年前, 我們併購KATANA. 從那時候開始, 研發時間大部分專注於讓軟體變得更開放, 並能夠整合到不同的流程裡面. 因為它一開始的時候是在SPI以公司內部的形式研發的, 因此當時是很針對該公司的流程所設計的. 而現在我們有APIs可以用來將現有的資產管理與算圖農場系統整合到KATANA裡面. 現在甚至有API可以用來完全地將新渲染器外掛到KATANA裡頭, 這對很多大型工作室有非常大的價值!

這樣開放的架構也是讓ILM購買團體授權版的重要原因, 內含Alembic也對他們很有幫助, 很多工作室都對彈性與擴充性有興趣 ,所以我們在針對像ILM這樣的大公司開發的時候, 我們會用適當的C++ APIs撰寫對KATANA的外掛.

KATANA能為工作室帶來效率的巨大改善. 很多人以為大部分的3D成本在於大型的算圖農場, 而事實上, 美術人員花費時間在場景上的時間才是最大成本. 如果美術人員能花費較少的時間在管理, 處理資產, 就有更多的時間花費在創意的東西上面. KATANA在這方面有很棒的評價, 就現有的用戶來說, 能夠處理很多很不合理的要求 (SONY所提出的), 總是靠KATANA能找到方法完成工作. 我跟很多工作室工作發現到, 即便是非常複雜的運鏡, 美術人員都能夠處理.

產品上市的接下來一年內, 我們希望有很多大型公司會採用KATANA, 而我們也會推出KATANA 2 . KATANA 2應該會更適合小型公司.

The Foundry公司發表KATANA 1.0, 畫面開發(look development)與照明工具. 取代傳統的CG流程, 提供彈性的流程, 在發表的同時ILM公司也購買了KATANA團體授權的版本.

目前已經用在下一個案子上面, ILM花了大把鈔票想要增強他們現有的流程. KATANA的團體授權讓ILM公司能在舊金山與新加坡都能安裝KATANA.

KATANA是針對需要管理大量資產的工作流程所設計的.
  • 一旦分鏡已經在處理了, 能夠允許資產進行更新
  • 分享燈光設定, 例如在分鏡之前與序列間進行編輯, 覆蓋
  • 允許你使用多個渲染器, 指定不同pass之間的相依關係
  • 針對特定分鏡可以修改某個場景資產來進行照明的設定, 這樣可以避開處理大量的分鏡有關的資產的麻煩.
而且KATANA是一個針對當代生產流程所寫的全新軟體, 延伸的APIs表示這套軟體可以整合到目前的流程, 材質庫與工作流程工具. 而協同工作的特性, 讓這套軟體可以對大規模的專案也沒有問題. KATANA最吸引人的地方在於彈性. KATANA可以產生非常複雜的分鏡, 同時美術人員還能維持控制它的能力.

ILM的視覺特效主管John Knoll說: 過去一年裡面我們跟The Foundry 公司密切合作, 針對我們想要KATANA有的功能, 而在把KATANA導入到生產流程裡面. 我們相信這套軟體很有前景, 我們也很期待將來的合作關係.

首席執行長Bill Collis說: "我們很高興能推出KATANA這套軟體. 流程工程師與燈光主管都很期待. The Foundry很驕傲能與業界的領導人物密切地合作, 例如ILM. KATANA再次證明了The Foundry是VFX業界裡面最佳夥伴!"

The Foundry為KATANA背書, 用在高階視覺特效的工具, 自2004年到現在已經有超過20部的業界實戰經驗!

2011年10月13日 星期四

The Foundry HIERO分鏡管理系統功能介紹

所以, HIERO到底是什麼?
HIERO是一套應用程式專門用在VFX流程整合工作上面, 可以用script管理時間軸的工具, 確認編輯的決定清單並且把VFX鏡頭分配給美術人員, 讓整個工作進行能夠檢視到整個前後關係, 解放原本的系統, 讓美術人員做出更有創意的工作. HIERO當初在寫的時候就已能與NUKE相容為目標, 當然你也可以自己寫script ,讓它能跟其他應用程式協同運作.

由於HIERO是開放式的, 可以透過Python程式編寫進行, 所以這是一套可以編輯的工具, 能夠很自然地吻合您的VFX特效流程.

主要功能
用直覺的工具來確認您的時間軸
HIERO把XML 與EDLs變成多解析度, 多軌的時間軸, 包含音軌. 這套工具是要用來解決以往的"確認過程"的問題,還包含了以下編輯功能:

提供您能對session能一覽無遺的表格, 任何時間都能夠對著離線的metadata資料並列查詢, 確認整個專案流程運作正常.

任何NUKE能讀取的媒體檔案HIERO都能播放
HIERO與NUKE共享檔案讀取的功能, 所以兩套軟體都可以用相同的方式讀取檔案. HIERO沒有專用的frame store. HIERO會進行軟導入(soft imports)所有的媒體檔案, 平順地播放影片跟硬體有關. 但是只要給予夠快的硬體, HIERO能溝播放您的影片, 包含同步的聲音檔.

將分鏡丟給VFX
時間軸上的影片片段送到VFX人員那邊, 根據你所定義的模版, 選取主影軌, 引導要怎樣分割影片, 或是輸出你認為需要的其他影軌.

HIERO接著會根據你的時間軸, 對每一個分鏡, 在硬碟裡面設定好幾組的資料夾, 每個資料夾裡面放置相關媒體檔案. 你可以告訴HIERO說, 哪邊是放完成的分鏡的地方, 放算圖的地方. 這樣一來,HIERO就可以產生相對應NUKE project, 把輸出與輸入都正確地連結起來!

讀取與寫入業界標準的影像檔案格式, 表示HIERO可以與任何的應用程式協同工作, 把專案完成.

自動讀取(ingest )VFX 分鏡
因為你輸出了模版, 告訴HIERO影片哪些部分會來自VFX. HIERO會自動針對每個分鏡產生新的clip, 這些clip會被擺放在新的VFX影軌. 當最後的結果渲染出來, 因為所有的分鏡都是軟導入(soft imported), 因此, 可以立即地播放出來.

管理您的分鏡
HIERO裡頭的每個clip, 並不是真的媒體檔案. 事實上, 這些clip可以是硬碟裡面任何一個真正的媒體檔案, 我們把這些稱為takes. 當你把clip擺放到時間軸, 你可以很快速地, 互動地切換所有可用得到的takes.

HIERO可以掃描所有版本的VFX算圖結果, 把它導入成不同的takes. 但是放在同一個clip裡頭. 這樣, 讓你可以在時間軸上面快速地切換不同版本的takes.

管理您的時間軸
時間軸可以作為你工作上面的檢查點, 你可以拿來做完整的標籤, 用時間戳記與評論. 我們稱這個為 快照(snapshots) . 你可以很輕易地看到目前有哪些快照可以看, 回存你的時間軸, 切換到上一個快照, 甚至把兩個不同的快照放到檢視器裡面, 並排顯示查看兩者的差異.

輸出成EDLS, XMLs 輸出選取的片段或是整個時間軸
當VFX已經完成, 而你的工作要進入下一階段, 你可以用很多種方式來輸出. 如果你要把東西丟到公司內部的的完稿系統(in-house finishing system), 你可以輸出成EDLs 或XML 指向你整個影片庫的完稿分鏡. 最困難的確認動作都已經由HIERO完成了, 讓你在完稿系統裡面要做再確認(re-conform)的時候變得十分簡單.

如果你要在公司以外把分鏡完稿HIERO可以輸出EDLs 或XMLs外選取的媒體檔案, 或者, 你可以把整個時間軸上的東西輸出成單一的影片檔.

素材的色彩管理
跟MARI 與 NUKE一樣, HIERO採用的是Sony Picture Imageworks的開放式色彩管理架構--- OpenColorIO. 這個架構讓你管理色彩, 讓檔案到大螢幕都表現一致.

對HIERO撰寫你需要的腳本
提供您廣泛的Python APIs 深入地連結到HIERO, 你可以把這套軟體調整到最適合你的狀態, 我們提供大量, 針對不同階段的組合, 你可以在確認, 輸入(ingest) 或是輸出階段來執行您的Python程式碼.

如果這樣還不夠, 你可以透過PySide函式庫建立你自己的使用者介面, 包含的Python APIs, 讓你可以直接擷取專案, 時間軸與片段. 因此, 你可以依照需求管理分鏡, 時間軸.

HIERO是一套分鏡管理系統
因為HIERO缺法影像處理功能, 所以這套系統並不適合拿來做完稿, 調色或是視覺特效. 基本上這就是分鏡管理系統, 用在VFX產業上很聰明地整理今日的, 開放的協同工作系統.

使用平台
HIERO 1.0目前支援MacOS (10.6)與 Linux. GPU不能太舊

The Foundry的背書
HIERO有很積極的研發時程表, 下一版將會支援Microsoft Windows 多通道的圖片(multi-channel images) 用戶端的快取, 最佳化播放速度, 3D立體影像等等.

專業的工具
我們(The Foundry)是根據客戶告訴他們的資訊, 以此為據把HIERO這套軟體寫出來的. 目的就是要填補當今VFX流程的缺失. 把HIERO 與NUKE丟到您的流程裡面吧! 使用可以微調的工具, 用在每天都會遇到的分鏡管理, 版本控制, 與復審, 讓您可以顯著地加速原本的流程.

解放您的完稿系統吧! 不要再用不適當的工具了! 讓所有的工具發揮它最擅長的地方.

Smoke and Mirrors公司的2D主管 , Tony Lawrence先生說:"我們很高興The Foundry能開發這樣精密的產品---- HIERO. 它的彈性, 易用並且整合到我們的流程 加速整個輸出過程, 這樣我們團隊就能做更多的工作. 再一次地, The Foundry又提供了一套對整個後製產業有幫助的解決方案了!"

2011年9月15日 星期四

VFX業界跨平台的新格式---Alembic


>編譯自fxguide與createasphere.com

VFX業界新的開放源碼的交換格式
幾家領導地位的特效工作室: ILM與Sony Pictures與Imageworks, 共同開發了一個開放源碼系統. 目標是解決特效界共同的問題, 如何可以共享複雜的動態場景, 跨越不同的軟體之間. 這個格式命名為Alembic (英文直譯為蒸餾機).本質上就是一個CG交換格式, 專注於有效地儲存, 共享動畫與特效場景, 跨越不同的應用程式或是軟體, 包含了商業販售的軟體或是公司內部開發的軟體, 客製化的工具組.

Lucasfilm的首席技術官Richard Kerris說:所有的特效公司, 以我們來說, 跟全世界很多夥伴合作, 同個單位底下有很多個產品. 現在終於有種方式可以確保輸出與輸入的內容是穩定而不失真的. 這會簡化生產的複雜度, 對於跨越不同國家, 多個產品而言. 他又說, 對於導演, 電影攝影師與其他電影從業人員, 將會感受這新格式帶來的巨大影響! 再也不會有, 這個要重做因為檔案格式不對, 或是, 我們的系統不能讀取這個檔案, 或是, 我們自己寫的工具軟體不能跟外掛系統溝通...這些種種問題終將消失.

你可以到Google Code 網站下載Alembic的根基程式碼, 或是到www.alembic.io查看更多資訊.

Imageworks的首席技術長Rob Bredow說: 我們還在寫這方面的程式, 為1.0版做最後調校. 當有人用這個程式碼的時候, 他們看到就會知道要怎樣用在他們的計畫上面.

各種VFX軟體的開發者已經表示他們也想要加入這個Alembic發起活動. Autodesk對於支援這個活動感到興奮, Autodesk傳媒娛樂的資深副總裁Marc Petit說: 這將會幫助整個產業植入現代化的流程, 製作數位娛樂內容. The Foundry的執行長Bill Collis接著說: 這個年代, 沒有任何一家軟體商或是機構可以孤立的存在. Alembic是個很棒的觀念, 移除這些對於創意表現不必要的阻礙. Luxology的執行長, NVIDIA, Side Effects Software 與 Pixar Animation Studios (Renderman)也都對這個計畫掌聲支持.

巧的是, ILM與 Imageworks這兩家公司都個別對這個業界長久的問題做了努力. 大約六個月前, 才發現到說原來大家都在朝這個方向也因此開始了合作. 雙方都追求能達到吻合現今工作流程並允許工作室客製化但卻又不影響協同工作的目標. ILM 與 Imageworks說明Alembic包含了工具能讓大家透過共用的, 可擴充的, 資料類型進行合作. 本質上, 這個格式蒸餾(Alembic就是蒸餾機的意思)出動態的場景檔, 變成一種不管用怎樣的軟體都可以讀取的檔案, 幾合體都是經過烘焙的. 這個烘焙的資料可以在支援的軟體裡面被導入進來.

這兩家公司已經測試過Alembic, 用在真正的專案上面. Imageworks用在<青蜂俠>與<藍色小精靈>; ILM則是用在最新電影<鋼鐵人2>上面.

Bredow如此評論: 儘管我們最近開始用我們自己的新格式, 用在好幾個專案上面. 當我們學會了ILM協力開發的東西 , 就發現開放源碼是對雙方公司最好的技術. 對整個業界提供的最佳系統.

Alembic是透過BSD 2.0授權提供 以C++ 和Python撰寫, 大量使用boost與 HDF5 C/C++函式庫, 也有用到OpenEXR.

Alembic計畫的發起活動
這是一個很令人印象深刻的團結活動, Sony Pictures Imageworks 與 ILM聯合發起了Alembic計畫. 這是一個核心交換格式, 專注於有效地儲存動畫與特效場景, 跨越多個軟體平台. 這個格式就相當於一種OBJ格式, 就像OpenEXR對於.cineon檔案格式那樣. 這是開放源碼, 強大的, 有效率的, 有用的格式.

Alembic是一個資料呈現的計畫, 用來儲存CG場景, 萃取美術人員的資料, 讓檔案交給下個流程的人. 或是不同軟體環境的人能夠使用, 這個格式會專注於各個應用程式之間的最大公約數. 這會是CG世界裡面的元素週期表, 它的支援度將會支援新的工作流程或是新工具.

Alembic並不是
  • 關係圖表(dependency graph) 也不是程序性的資料轉換工具
  • 並不是要取代原本的應用程式的場景格式
  • 不是資產管理應用程式
  • 不是通用的rigging資料儲存方案

Alembic可以用來烘焙有動畫的場景當, 然後交給下游的燈光或算圖人員, 也就是把動態的角色, 衣服或是肌肉模擬的效果傳遞給下游人員. 這也可以用來儲存衣服, 或是肌肉模擬, 用在打燈或算圖 交給動態模型組或是物理模擬的人員, 用來進行模擬. 例如Nivida的即時流體模擬方案(Fluid Sim). 也可以用來儲存物理模擬的結果, 用來打燈或是算圖.

Alembic不能用在
  • 在不同應用程式間轉換複雜的程序性動畫rig
  • 在同一個應用程式裡面, 輸出然後再次輸入後, 因為這會產生一定程度的檔案資訊失真
  • 建立複雜的程序性工具
Autodesk這次也有出席這次活動, 我們問Autodesk傳媒娛樂的資深副總裁Marc Petit, 這個檔案格式會跟FBX有怎樣的關係呢? 因為很多人會誤以為Alembic就是要拿來取代FBX的. Petit完全地表達Autodesk對新格式的支援, 他這樣說, 具有關鍵性意義, 畢竟Autodesk在3D市場具有霸權地位. Alembic這個計畫的發起再次顯示ILM與Imageworks的領導力與遠見, 因為視覺特效與電影製作日新月異Alembic的出現提昇了不同製程之間合作的層級. The Foundry公司也支持這個新格式, 這個格式也是Katana內定的格式, Luxology也一樣. Side Effects software, Nvidia, 與Pixar也都是.

Pixar的Dana Batali, 他是Renderman的副總, 而Renderman往往是開放標準的同義詞, 而我們對於這個Alembic作為產業格式的前景十分興奮. 他在Pixar User Group上這樣說.

Alembic for Softimage 1.0 from helge mathee on Vimeo.


(完)

2011年8月27日 星期六

ASSASSIN’S CREED刺客教條幕後製作專訪


>譯自THE ART OF VFX

刺客教條:啟示錄, Digic Pictures工作室專訪

請問你們跟Ubisoft合作的狀況?
刺客教條在全球市場上已經有好口碑, 因此在製作的時候不只是有責任達到標準, 還要超越期待. 在這個案子裡, 我們很注意業主想要對玩家表達怎樣的訊息, 不但要引發對遊戲的興趣, 還要讓大家來玩這款遊戲. 所有細節都要達到. Ubisoft給了我們許多背景資訊, 他們希望能夠精確地表達故事的概念與設計, 但同時給我們創意發揮的空間. 因此製作這部影片是我們的責任, 或是製作出更困難的手法也是我們決定. 能跟Ubisoft這樣有天份的, 有創造力的團隊真的給我們不少啟發.

你是怎樣來著手處理這部動畫的?
Ubisoft如此強調刺客教條的史實的正確性真的很令人讚賞, 也很少見, 同時給我們大量的參考資料也十分有幫助. 另一方面對我們來說也增加了困難度, 因為我們必須要維持真實性. 事實上我們不只是要維持真實, 我們還要維持遊戲這個虛擬世界的真實性: 場景, 角色, 與動作, 特別是關於武術的部分, 從Ubisoft那邊讀到很多第一手的幫助, 但是DIGIC上面刺客教條的粉絲們提供的要更多.

這部影片裡面有很多不同場景, 你怎樣製作, 特別是船的那個?
我們結合了matte painting背景與3D元素, 中景與遠景.

關於布料, 可否解釋是怎樣設計與製作動畫的?
我們用Syflex來處理布料模擬, 我們做了很多史學研究, 還有客戶---- Ubisoft提供的參考資料.

你怎樣編排那場Ezio跟衛兵的打鬥場景?
Digic Pictures我們有自己的mocap棚---- Digic Motion提供了專業的武打員.

你們每週動畫可以做幾秒鐘?
我只能跟你說, 我們花了一整年, 總共做了15-20分鐘的動畫.

你能不能談談在那場Ezio與他的替身在吊刑屋的製作細節?
很顯然, 接露出Altair這位仁兄不過是鬼魂, 是在最後一幕當他與Ezio走向吊刑台, 這個橋段是我們自己加進去的, 不是UBISOFT要我們做的.

Altair的視覺表現, 最初的概念是要讓他到在後一段才接露出他是鬼魂, 所以一開始的時候不會讓他顯得發光與透明的感覺, 但是在試映階段有很多人給予了意見, 讓我們改變作法. 很多人認為Altair的半透明感反而讓整個故事變得更加朦朧讓, 意識流更加混沌, 因此故事會變得更加曖昧不明. 我們理解Ubisoft對這方面的顧慮, 因此把概念做了修正.

當你在製作你已經很熟悉的角色, 可是角色年紀變得比較大, 會有什麼感受?
基本上這在遊戲機裡面很少見. Ubisoft會這麼強調歷史合理性真的很值得激賞, 這也對我們很有幫助, 因為我們拿到許多參考文件, 設定場景, 但是另一方面我們也對忠實於吻合史實. 我們必須吻合這些資料, 還要吻合遊戲裡面的虛擬世界, 例如場景, 角色與動作, 特別是武術動作. Ezio的動作讓他看起來好像有超能般, 事實上他只是一般人, 因此, 他也會變老.

請問在製作老人版的Ezio 會對你造成困擾嗎?
不會!

對這個專案你有沒有開發任何軟體工具?
幾乎每個新專案都會遇到新的挑戰, 我們也都需要為此寫新工具, 或是要改已經有的工具. 儘管不一定會有神奇的新工具寫出來, 還是會有大量, 小的研發讓整個工作流程更加順暢.
每個流程都會經過無數次的修改, 讓整個流程變得更加的順暢. 最顯著的改變大概就是引進Arnold算圖科技吧! 這是我們第一次使用Arnold在刺客教條 (還是少數的場景是用Mental Ray來算圖),但是在最近的案子裡面, 我們成功地用更完整研發的系統, 讓現有的功能更強化了, 有了新功能不僅僅讓技術團隊更加愉快, 美術人員也能用在shading與照明方面.

購買了Vicon T160動作捕捉系統 (總共有16台攝影機 每秒捕捉2000個frame) , 架起我們自己的動作捕捉棚---稱為Digic Motion. 對公司整體也有很大改善, 在製作刺客教條第一部影片時, 那場在威尼斯場景的動作捕捉資料是在匈牙利那邊捕捉的. 但是下一部影片我們只要在自己的捕捉棚就可以做到, 優點是我們可以不斷地修改動作版本, 即便是到很後期的製作也可以.

我們的資訊科技背景無可避免地也進行了改良, 資料量的無限制增長 (內容的增大, 嚴苛的製作時間), 需要大量的硬體設備.

你們燈光氣氛的參考材料是什麼?
關於場景的參考 我們參考了1986年的一部電影叫做<<薔薇的記號>>. 原本的目的是要讓在結束故事的時候有更深沈的氣氛, 讓觀眾有種充滿疑問, 待解的感受.

這個專案你遇到最大的困難是什麼?
整個場景有很多慢動作快動作的設定, 由時候會做到非常非常慢的動作. 這會產生很大的技術難題, 因為有很多角色, 很多需要模擬的元件. 因此, 那場Ezio在海上的場景讓我們面臨許多問題, 因為算圖流程經過多次的改變, 以前這樣的流程與工具還可以用, 但是這次變得無法使用了, 但是對於新技術的開發我們只有相對少的時間可以研發而已.

有那個片段會讓你做到廢寢忘食?
沒有耶, 工作了好幾個小時候回到家後, 直接就倒頭睡了.

這個專案花了多久的時間?
影片花費了四個月, 我們同時有多個專案在進行, 因此刺客教條只是我們同時間在製作的其中一部.

你們工作流程裡有用到哪些軟體?
場景資產是用Maya, 3DS Max, ZBrush, Bodypaint 與 Photoshop來製作的 前面兩者可以用來跑我們自己寫的外掛. 整個場景是在Maya裡面兜起來的, 也用Maya來製作動畫. 算圖的話我們用Arnold, 整個圖層的合成是用Nuke. Maya的功能是可以調整的, 因此我們自己修改了Maya的功能或是自己寫新的外掛, 我們可以說Maya提供我們很棒的流程架構 ,當算圖與合成的時候, 我們的考量是可依賴性, 效能要能支援到大場景製作上.

這部影片總共有幾幕? 整個團隊有幾人?
有好幾幕
在工作室內工作的有80人

下個專案是什麼?
那是機密, 我不能談

請舉出四部電影, 讓你燃起熱情.
我們團隊有80人 不太可能舉例說哪部電影燃起熱情 我相信有很多部

向你說聲感謝接受採訪



2011年7月20日 星期三

變形金剛3幕後製作:專訪Digital Domain

>譯自fxguide

這次的專訪裡面, 我們(fxguide) 很榮幸地訪問到Digital Domain的視覺特效主管---Matthew Butler先生, 來談談特效團隊在<<變形金剛3>>---這部有350特效的幕後製作, 負責了雷射鷹(Laserbeak), 腦殘(Brains), 甩輪(Wheels)與狂派原生型態(Decepticon protoforms). 這幾個躲藏在月球上的角色, 太空橋的場景以及鳥人空躍的特效場景製作. Digital Domain特效公司這次負責了電影裡面所有的3D立體場景, 這部麥可貝(以下稱麥導)第三部變形金剛電影, 除此之外Digital Domain的姊妹公司---- In-Three也處理了一些3D轉換工作.

關於太空橋讓賽博坦(Cybertron)拉近地球的那的場景
記者: 可否先談談雷射鷹. 個人覺得它具有很混亂卻又十分精明的特色. 這是怎樣達到的呢?

Butler: 它是個壞, 邪惡, 殺手的角色, 也是個清道夫. 這幾年來, 它是狂派原生型態的手下, 派到地球殺光人類. 一開始的時候先由麥可貝提供意見, 接著一點討論. 我們先製作動作, 然後麥導跟配音員討論, 然後據此我們再調整動作 .

其中有一幕雷射鷹與Jerry Wang(Ken Jeong飾演)有對手戲, 最後Jerry Wang被雷射鷹所殺. 麥導對這個場景的動作有很多想法. 我們用這個小藍襪, 裡面放了工具可以用來操控Ken Jeong的眼鏡 撥動他的頭,髮 然後我們把CG角色跟他合成在一起, 看看雷射鷹是否視覺上能跟Jerry Wang有互動的感覺. 基本上我們把在變形金剛2裡面Alice那一募得技術用在這裡了!

因此雷射鷹這個角色基本上是根據現場設定來做互動的, 其他角色我們也是如此處理的. 當甩輪(Wheels)跳到毀滅者(Bonecrusher)---狗狗上面的那一幕, 我們用小箝子拉他的耳朵, 麥導很喜歡在真實場景裡面作這種小技巧, 設定場景的感覺.

關於"甩輪"回到月黒(Dark of the Moon)的那一幕
記者: 有一幕很好笑是雷射鷹在狹窄的辦公大樓追Sam, 你是怎樣做到讓這一幕看起來很棒的?

Butler: 我們試了很多方法, 首先我們先做了基本動畫, 把它設定為會拍打翅膀亂飛的鳥. 有好幾次 麥導不喜歡, 整個動作看起來太友善了! 因此我們仔細研究注意到雷射鷹有個三角翼的姿勢, 因為他具有導流管, 因此他不會像鳥一樣的飛. 但我們必須要設定他是拍打翅膀來飛翔或是靠噴射引擎? 到最後, 我們決定把翅膀與噴射引擎這兩個概念混合使用.

有一幕他跑到伺服器室, 做了“Terry Tates”動作. 轟的一聲, 變到檔案櫃的一邊, 裡面有很多電腦零件, 然後他跌跌撞撞的掉到地上. 這一幕, 麥導說, 他希望雷射鷹在這裡要像飛到別人家中的驚弓之鳥般, 亂飛, 就是麥導說這幕要弄的很亂的.

記者: 替Laserbeak建模的時候你們用什麼工具. 其他腦殘, 甩輪等角色室怎樣建模的?

Butler: 基本上, 所有都是在Maya建模, 有時候會用到Mudbox來增加細節. 所有的外觀研究都是透過Maya. 算圖大部分是透過RenderMan 有時候我們會用V-Ray來算pass 或是用Mantra.

麥導他超愛複雜的, 反光很強的設定. 片場中的每一幕他無不是這樣搞的, 他會要求燈光師用拿1Ks的燈光透過一大片塑膠片或是破玻璃來打燈, 這樣整個場景的光線就會變得超級複雜. 還好當今的特效產業不會只當成後製而已, 我們會在現場, 收集所有需要的資料, 因為我們必須要讓整個感覺能夠相互吻合. 我們可以進行需要的資料收集 ,包括動態的HDRs與投影和參考影片.

記者: 你可不可以談談腦殘和甩輪這兩個角色. 從腦殘的頭髮噴出的煙是怎樣做的?

Butler: 笑. 製片設計師Nigel Phelps拿了一些麥導認可的概念設計圖. 我們有很多腦殘的美術設計. 要把腦殘設計為有兩個輪子的伙計, 接著看到劇本對話裡面有: "我想到了! 好熱阿! 好熱! 冒煙了" 他就好像超頻過熱的機器人, 我們討論到他的動作與動態, 接著就加了那個東西. 麥導後來也喜歡腦殘, 還有他那冒煙的頭髮, 他也覺得好笑. 之前的想法其實是甩輪把腦殘放到冰箱裡, 我們有研究如果他從冰箱出來在頭上有一袋豆豆, 但是這一幕在拍攝前就被刪掉了.

當鳥人在芝加哥上空從魚鷹號跳出來的那一幕
記者: DD也有參與製作鳥人的特效片段, 請問大致上是如何製作的?

Butler: 我那時人在芝加哥指導那一幕的現場攝影Julian Boulle頭上戴了立體攝影機的頭盔, 攝影機是SI-2K規格的. JT Holmes則是領導了"松鼠團隊" 有三個成員, 在前期我們經過很多討論, 他們可以幹的非常棒, 但我總覺得我們對於支援他們的瘋狂特技團隊有很有幫助. 他們的特技演員真的超厲害. 我們則是添加了CG車輛, 數位場景與大量的CG鳥人.

記者: 在前期或是previz的階段準備到怎樣的程度?

Butler: 基本上有很多準備, 做了很多初步測試, 我們研究整個屋頂, 看看那邊最適合把人從直升機裡拋出來. 有一個趣聞跟你說: FAA希望每個人跳出直升機的時候都額外戴一個備用降落傘, 但是這些特技員是專門跳傘的, 從來沒有用過兩個跳傘來跳. 因為當你從500英呎高度開始跳的時候, 根本就沒有時間讓第二隻傘打開. 其實, 強迫這些特技員帶兩個傘很危險, 因為這會改變空氣動力與重量. 但是FAA堅決他們一定要帶副傘, 所以這些特技員就做了幾次測試跳. 諷刺的是, 當他們正式跳傘的時候, 因為身邊根本沒有人監督, 所以根本就沒必要帶副傘, 所以他們就捨棄副傘, 只用一隻傘來跳囉~

我們都會有頭盔式攝影機在拍攝, 而在地面會有攝影機, 在直升機上面也會裝有攝影機. 基本上我們拍攝我們所有的畫面, 因為跳躍的場景時間十分急促, 總共只有六秒的可用時間而已. 我跟現場的DP--- Rob Bruce先生量測範圍, 我們挑選幾個會涵蓋到的屋頂, 還有幾幕是完全電腦合成的. 因此,我會對這幾個需要合成的畫面到現在拍一些plate.

記者 :處理鳥人那一幕要面對哪些問題呢?

Butler:很多. 我們拍了很模糊的搖攝畫面, 用SI-2K立體攝影機頭盔拍出來的, 是最困難的. 這台攝影機有一個滾動式快門(rolling shutter) 裡面的陣列感光元件從左到右掃描, 如果攝影機跑的很快的話, 當感光元件接受到最後個光線的時候, 來源物可能已經移位了, 就會產生非常抖動畫面, 所以如果你在搖攝的時候, 用慢速感光快的, 畫面裡面的垂直線看起來就像香蕉或是麵條一樣扭曲.

鳥人飛躍芝加哥城
整個畫面看起來還ok, 但是困難在於, 怎樣做出全CG的場景. 當使用攝影機追蹤配合CG合成的畫面, 最後又要怎樣不會看起來很假呢? 如果你把一個CG物件不帶有像差效果, 放到真實的場景裡不可能會看起來吻合的. 我們在拍攝的時候採用Sony F35攝影機, 帶有球狀鏡頭, 因此不會有滾動快門的問題, 也不會有底片攝影機的不連續快門的問題. 在拍攝3D畫面的時候也會遇到上述問題, 從F35來的3D畫面, 頭盔攝影機提供了2K解析度的後製3D plate, 能夠產生合成的3D立體效果.

記者: 當你在製作Ospreys那一幕, 跳出來的畫面時, 你需要準備哪些資料來處理?

Butler: 嗯, 有很多. 但是我認為最困難的是火跟煙. Digital Domain對於自然特效十分有經驗, 有一幕他們從Osprey的後面躍出, 整個畫面是用慢速攝影的方式每秒120個frame, 因此必須要好好處理這畫面. 也沒有太多的攝影機動態, 整個鏡頭穿越Osprey, 維持了許久的時刻, 感覺十分超現實. 我們花了很多時間研究這個畫面, 有大量的爆破與移動的攝影機, 所以會希望看到很多視差. 不得已的情況下, 我們做了很多3D CG的煙霧, 而不是用真實的煙霧卡(photographic cards) . 麥導還要求光線方向必須正確.

記者: 你是用哪些工作製作煙霧與火焰?

Butler: 我們從Storm學到很多 ---這是我們公司內部的volumetric算圖引擎. Storm與Houdini這兩個是我們volumetric的主要火力, 用在自然現象與氣態的特效, 然後我們就用FSIM----內部研發的流體---水與水花的模擬器. 但其實很多還是要靠人力, 而不是靠軟體本身來產生美麗的效果. 我們有27人專門負責這些特效.

記者: 有想過用全數位的替身演員嗎? 你有機會替跳傘特技員做全身掃描嗎?

Butler: 這些跳傘特技員在畫面裡面不是非常近, 因此不需要數位的特身演員, 也就是說, 我們需要相片級寫實的鳥人, 但是每個鳥人並不需要跟特定的演員長得一模一樣. 我們有很多鳥人的參考畫面, 利用這些資料確保效果能跟動畫吻合, 我們也模擬衣服動態. 這是很有觸感的東西, 所以我們必須要知道動起來的感覺 ,並不是需要做到你一般預期他可能的動法. 建模師與燈光師都下了很多功夫, 燈光也加了很多細節, 透光度, 高光, decal與角色在半空中被擊中的的效果都要考量進去...

狂派原生型態離開月球那一幕
記者: 你能談談當狂派原生型態離開月球那一幕嗎? 因為那一幕是全CG的, 要怎樣達到寫實的感覺呢?

Butler: 我的技巧是, 當在處理全CG的畫面時, 一定要基於某種實拍畫面, 以此為基礎來製作. 因此, 盡可能的讓動態看起來寫實, 你可能會說那是雙腳行走的動畫(bipedal behavior). 我知道, 我也會說 我們也看過自然的粒子動態 ,可是有看過零重力的粒子嗎? 雖然要在真空狀態才會看到. 但是我們其實也看過類似的畫面...

我們當然也可以做出月球煙塵真正在真空狀態時的動態, 但是會看起來怪怪的. 我們還是參考了在地球上的畫面, 這樣觀眾比較能夠根據真實的經驗來體會月球的煙塵"應該"的感覺. 我們也參考了大量的月球照片, 花了許多時間研究. Mårten Larsson是其中一位CG主管, 他花了超超超久的時間研究, 最後寫出了十分寫實的shader. 我們也加了很多光學像差效果, 讓整體而言變得更加寫實.

記者: 你有提到立體攝影, 請問立體攝影有遇到哪些問題?

Butler: 一開始時, 我們試了很多不同的攝影機, 每一台都有它獨特的性質: F35s, anamorphic film mono, spherical film mono 還有SI-2K . 我們還拍了很多類似Decepticon視覺的畫面, 因為麥導希望整個有手持式攝影的感覺. 我們必須要研究所有格式, 讓color gamma等等能吻合. 所以, 不僅僅是要達到可以工作的狀態而已, 有很多很多幕後你不知道的事情...

工作量的增加也是一大挑戰, 要算出3D立體電影不是那麼容易. 在一般電影效果裡面用的技巧並不能套用到3D立體電影裡, 例如用手工修一格一格修像素的技巧就不能用在3D立體電影的流程裡面. 因為如果這樣做的話 ,就會破壞掉立體效果. 所有用3D攝影機拍攝的東西, 都必須要跟CG裡面做吻合, 定義裡面的兩眼分離距離與交會的數值, 在編輯的時候左右兩顆鏡頭都要顧. 所以, 3D立體電影就代表了增加了超多的工作量要去執行.

最後, 我們會產生大量的影片資料, 交給轉檔公司 ,其中一家是我們的姊妹公司---- In-Three. 我們提供所有的render elements, 例如z-depth與Nuke scripts, 幫助他們整合, 把兩個影像合成3D立體畫面. 這其中涉及到很多的工作, 但是正確的規劃與流暢的工作流程最終產生很棒的3D立體影片.

2011年7月19日 星期二

Nuke 6.3正式上市!



http://www.thefoundry.co.uk/articles/2011/07/18/259/nuke-nukex-63-now-shipping/


號稱NUKE史上最“大”的小改版,NUKE & NUKEX 6.3在引頸期盼下終於上市了!
NUKE自問世以來,就以“以一擋多”的精神整合所有特效合成的各個環節,企圖將傳統需要跨不同軟體與知識領域才得以辦到的複雜工序,整合成一人一機,大大增進效率。

NUKE & NUKEX 6.3的全新功能有
全新曲線與格點封套工具 NEW Spline and Grid Warping

音軌動畫產生工具 Audio Scratch Track


自訂預設 User Presets

置換貼圖材質 Displacement Shader


3D投影修正 3D Projection

客製化增強 Customisation enhancements 

Deep檔案合成Deep Compositing

3D粒子系統 3D Particles (NUKEX)

平面追蹤工具Planar Tracker (NUKEX)

全新去雜點Denoise (NUKEX)
 

2011年6月1日 星期三

MARI 1.3新增功能介紹


MARI 1.3有很多好用的新功能, 讓您有更好的工作流程來發揮創意.

"MARI改變了我們處理貼圖與matte painting的流程"----Brandon Fayettev先生, Bad Robot公司.

MARI 1.3 新增功能:



Ptex
萬歲! Ptex讓您繪製並渲染模型, 不需要花時間建立複雜的UV, 讓美術人員有完全的自由度 能設定不同位置, 不同時間的貼圖解析度. 有了MARI, 每個模型的面, 可以最高有8k pixels的貼圖解析度, 你絕不會發生解析度不夠的問題! 我們對Ptex的支援, 用的是世界級的資料處理與渲染引擎, 是直接由迪士尼動畫工作室的繪圖技術破天荒與The Foundry協議轉移過來的技術!!!

DISPLACEMENT預覽
精確地預覽displacement 這對精確繪製材質很重要, 也可以讓工作更有效率. 如果不能及時地看到雕刻出來的細節, 美術人員根本就是矇眼在工作, 用耗時的算圖預覽看效果, 這樣的流程太沒效率了!

使用了GPU科技, 與MARI的世界級材質處理技術, 幾乎無限制的displacement細節, 能夠即時地顯示出來, 簡單地設定displacement貼圖, 讓您即時地創建模型細節, 這樣的模型細節用傳統技術往往要耗費上億個多邊形.

沒有displacement的蝸牛

套用displacement的蝸牛

Snapshot
Snapshot提供不同版本的展示系統, 提供美術人員強大的彈性, 讓您知道變化的效果 ,修改變得很即時, 流暢, 不必再等待檔案複製或是覆寫的錯誤造成的作品遺失.

tiled貼圖
MARI的即時tile系統讓你很快速地套用到大面積的模型, 但不失去對貼圖的控制力, 多個tile的貼圖能夠用遮罩混合, 但還維持編輯度, 讓您花費最少的時間, 很輕易地修改.

環境貼圖
環境貼圖讓藝術家能預覽, 閃耀, 反射的表面. 在繪圖的時候就能預覽最終效果, 環境貼圖幫助你察覺表面的細微變化, 讓美術能做出美感的判斷, 決定最終效果.

NUKE<> MARI
MARI 與 NUKE變成好朋友了! MARI 1.3v2提供新的合併流程, 解決您投影時常見的問題, 例如邊縫, 拉伸與遮蔽(occlusions).

聽起來很有趣嗎? 影看以下影片展示功能

Frank Rueter's NukeMari Workflow Video from Hieronymus Foundry on Vimeo.


下載MARI 1.3 試用版(15天)請點這裡