avatar制作的相关技术介绍.doc

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
狂想曲影阿凡的作熊士豪明台大工程系及媒所摘要在本篇文章中我介室有境的技透所作出的模型加上捕捉等技人建模在其中我有一新的突破亦即於皮的毛孔以及透光度的呈上均有很好的效果故在模真的人才能人法分辨出真些技成功地套用在今的影跟引言近年的影越越多用到景的技尤其在去年的影中不集了特效更在空中建了似真的人在皮部理都有很好的效果但是怎做的呢又有甚是有於之前影所用的技以下我一一此做介如何在的景中置入的物或人物到真的效果在上我用前景背景做分技融合前景到另一背景中今有模型可以直接透影像生成出我要的景惟生成的品好有所不

動畫狂想曲: 電影阿凡達的製作, 熊士豪, 歐陽明 台大資訊工程系及網媒所 摘要 在本篇文章中,我們將介紹實驗室裡有關虛擬實境的技術,透過電腦所製作出來的3D模型,加上動態捕捉等技術,將人臉建模;在這其中我們有一項新的突破,亦即於皮膚的毛孔、皺紋,以及透光度的呈現上均有很好的效果,故在模擬真實的人臉時,才能讓人無法分辨出真偽,這些技術成功地套用在現今的3D電影跟動畫。 引言 近年來的電影越來越多運用到3D、虛擬場景的技術,尤其在去年的Avatar電影中,不僅集結了特效,更在虛擬空間中建構了似真的人臉,在皮膚、臉部紋理都有很好的效果,但這是怎麼做的呢?又有甚麼是有別於之前電影所應用的技術嗎?以下我們將一一對此做介紹。 如何在虛擬的場景中置入現實的物體或人物達到擬真的效果 傳統在2D上我們運用將前景、背景做分離這個技術,融合前景到另一個背景中;現今有3D 模型可以直接透過影像生成出我們要的場景,惟生成的品質好壞則有所不同。 電影特效的介紹 在這邊我們可以將電影特效分為兩部分。 從早期的將前景、背景做分離,再將人物或前景的物體置入新的背景中;但如今的場景,皆已可藉由3D 模型去生成影像。 故3D模型所生成影像的品質好壞,則有其差異所在。 在近代電影中,常常可以影片中極壯觀的場景、或是很多不太可能由真實人物在現場演出的場景,如:在空中飛翔、人在外太空、或潛入很深的深水之下等;在實際上拍攝的時候,我們可能無法找到這種景觀,或無法在那樣的環境下進行拍攝;此時就需要對影片進行後製,我們稱此為一種電影特效,亦即一種虛擬實境(Virtual Reality)。 我們經常可於電影花絮中,看到演員站在以藍色或綠色的布為背景的空間中,進行拍攝這樣做的目的,在使前景角色和背景之間產生顏色差異,經由後製,可以將綠幕(或藍幕)的部分去除,再透過電腦圖形技術,可以將特效場景與拍攝人物合成在一起,得到彷若置身於真實場景的效果。隨著電腦技術進步,已經可以透過一些3D模型生成軟體,3dmax、Maya 圖一 圖二此為電影阿凡達中的場景之一,其背景即是透過3D模型所生成的影像。 如何塑造人臉 圖三 在電影阿凡達中,我們可以看到納美人臉部上擁有許多豐富的表情,無論是喜悅、憤怒、悲傷、齜牙裂嘴,更甚於是惶恐、無辜等諸如人類才有的細微表情,都被栩栩如生的呈現出來。大家都知道,真實世界中沒有所謂的納美人,他們都是電腦製作出來的3D模型,模擬真實的人臉但這些擬真的表情是如何從人臉模擬至3D模型上呢? 其實這樣的技術早在《貝武夫:北海的詛咒》中即被大量地使用,在貝片中無論是安潔莉娜裘莉(女妖),抑或是雷溫斯頓(貝武夫)均是3D虛擬出來的角色我們可以看到貝片中人物的臉部外形、表情、動作其實都與真實人物相去不遠。 要取得與真實人物相似的結果,主要是讓演員穿上佈滿感應球的服裝,並且在臉部依照肌肉及五官的位置標記適量的感應點,再藉由攝影機拍攝下來的多張圖片,去推估每個感應元件的3D座標。將那些3D座標對應至3D數位演員模型上,便可驅動數位演員的臉部表情跟動作這樣的技術被稱為3D動態捕捉技術。  要做到近真實臉部表情的模擬,最主要的問題在於如何精確地推估出臉上各個感應點的3D座標,而這些感應點在此我們又稱作特徵點。推估3D座標有很多種做法,常用的做法是藉助多張不同角度的圖片,求出不同圖片之間,特徵點的彼此對應關係。我們的實驗室很早就在進行相關的研究與應用。在2000年的時候,我們設計了一套可以讓虛擬人臉演講的系統,將其做成網頁瀏覽器的外掛程式。這套系統會針對影片的演講內容做分析,藉由得到的發音特徵,來驅動虛擬人臉做出相對應的嘴型跟表情,並且可以即時呈現出來如圖。 圖五 在當時,我們就利用了前述的動態捕捉技術,用了八台攝影機去做同步拍攝的工作,進一步建立虛擬角色的表情資料庫。然後配合輸入語音取得適當的資料,來操控我們的「演講者」。 我們對表情模擬的重點,主要在處理臉部肌肉及五官位置的改變而形成不同表情的變化。因此,在設置特徵點時,我們會著重在額頭、眉邊、雙頰、嘴唇附近為主,這些位置皆是呈現表情時臉部主要變化的部分。當然,若希望要求更精密的表情變化,則會散布更多且適量特徵點在臉上,但通常特徵點的數量是有所限制的,太密集的特徵點,反而會因為要處理在不同角度攝影機的特徵點的對應關係,造成計算上或是人為處理上的困難,甚至對應上的誤判,這些錯誤會導致推估空間中位置的誤差或計算出不正確的空間位置。 在2002年,我們提出了另外一套設計,主要改良簡化了拍攝所需要的硬體設備,卻可以維持一樣的模擬精準度。基本概念,是藉由鏡面的反射,進而得到不同角度物體的影像(如下圖(圖七)所示)。 圖七的左圖中,除了中間為真實人臉外,其餘

文档评论(0)

wangsux + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档