トップ 差分 一覧 Farm ソース 検索 ヘルプ RSS ログイン

CG実習1α・1β-第8回-2007

CG実習1α・1β 第8回 【出力・合成】 課題制作 [2007年度前期]

 LightWave 3Dで実写映像との合成について

実写映像を別の実写映像に合成する場合、様々な方法があります。単純に二つの映像を重ねる方法もありますし、ブルースクリーンの前で撮影し、映像の中の青色の部分を抜いて、人物だけを合成することもできます。もしくは、マスク画像を作成して合成するということもよく使われる手法です。

3DCGの場合はレンダリングして3DCGシーンから画像を作成したときに、アルファチャンネルというものが作成されます。普通の24ビット画像はR(8ビット)、G(8ビット)、B(8ビット)の計24ビットで構成されていますが、32ビット画像だと更に8ビット分のデータを入れることができます。それがアルファチャンネルです。アルファチャンネルを使うと非常に簡単でなおかつ綺麗に合成することができます。逆に言うと、アルファチャンネルが無いと合成が難しくなります。ですから、レンダリングするときは32ビット画像で作成するようにしてください。ファイル形式によく使われるのは、TGA、TIFFなどです。

整理しておくと

  • レンダリング画像は32BIT(合成する必要がなければ24BITも可)
  • 連番静止画でレンダリング
  • TGA,TIFFなどが一般的

 リアルな合成を目指す


実写と3DCGを合成するときに障害になるのは、カメラの一致光(色)です。
どちらも、突き詰めるととても難しい問題で、決定打というのはなかなかありません。ハリウッド等の現場でも様々な工夫をして実写と3DCGなどを合成しているのです。

光(色)の一致というのもいろいろ研究されているのですが、代表的なのは、「グローバルイルミネーション」と呼ばれているものです。光というのは、様々な場所に反射、屈折、透過、拡散しつつ私たちの環境を照らし出しているのですが、それを擬似的に再現するものです。分散レイトレーシング、ラジオシティ、フォトンマップなどが代表的なものです。少々違いますが、イメージベースドライティングと呼ばれるものもあります。光の回り込みや色の拡散などが得られるのでとてもリアルな画像になります。ですが、計算処理に大変時間がかかるのが難点であり、合成する際もいろいろ工夫が必要です。

カメラの一致についてです。何が問題かというと実写を撮影したときのカメラはある任意の画角、動き、歪みを伴っています。撮影時のカメラと3DCGソフト内のカメラの画角や動きの設定がピッタリ合わないと、合成してもズレてしまい不自然になってしまいます。そこで、実写映像を解析してどのようなカメラが使われていたか、また空間の中でどのように動いていたのかなどを調べる必要があるのです。その工程を「トラッキング」と呼んでいます。

AfterEffectsなどにもトラッキング機能はついているのですが、平面上の動きを調べるだけなので奥行き情報やカメラの画角は調べられません。3次元空間のトラッキングができる3DCGソフトで有名なのはMaya、maxなどです。残念ながらLightWaveではできないようなので、別のソフトが必要になります。業務目的で行う映像制作では、トラッキング専門のソフトウェアを使うことが一般的です。boujouなどが有名なのですが、とても高価なものですので、個人製作に使えるようなものではありません。ですが、現在はフリーで使用できるソフトウェアがあるようです。「Voodoo Camera Tracker」というものです。僕は、まだこのソフトについてまだよくわかってないのですが、もし実写でのトラッキングに挑戦したい人は使ってみてください。かなり面白いものが作れます。