UE4の描画パスについて Ver 4.18.1

こちらは Unreal Engine 4 Advent Calender 2017 16日目の記事です。

以前書いたUE4描画パスの順序をまとめたものがだいぶ古くなってしまっていたので最新版へのアップデート。
以前の記事はこちらです。

monsho.hatenablog.com

動作を完全に確認しているわけではないので、ミスがあるかもしれません。
見かけたらお伝えいただければ。
なお、今回もDeferred Renderingパスに関してのみで、モバイルやForward Renderingパスについては言及しません。
RenderDocを見ながらチェックする方が読む側は楽しいと思いますが、描画パスを詳しく知りたい、あわよくば改造したいという人はRenderDocよりソースコードの行数やコード片の方がうれしいかな、と思いまして。

Deferred Renderingの開始は

Engine/Source/Runtime/Renderer/Private/DeferredShadingRenderer.cpp (532)
FDeferredShadingSceneRenderer::Render()

ここから開始です。

行数 コード片 内容
539 GRenderTargetPool.TransitionTargetsWritable() ターゲットプールのターゲットを描画可能な状態に遷移
542 SceneContext.ReleaseSceneColor() シーンカラーバッファを解放
546~552 FRHICommandListExecutor::WaitOnRHIThreadFence() RHIが別スレッドで動作している場合、ここで OcculusionSubmittedFence を待つ
前段のOcculusionCulling処理の終了待ち?
568 GSystemTextures.InitializeTextures() システムテクスチャの初期化
初期化済みならなにもしない
571 SceneContext.Allocate() ViewFamilyに見合ったレンダーターゲット用のバッファを確保する
ViewFamilyはFeatureLevelやSceneCaptureがあるかなどの情報
573 SceneContext.AllocDummyGBufferTargets() GBufferにダミーの黒テクスチャを割り当て
579 InitViews() Viewに関する様々な初期化
メッシュのカリング、半透明のソート、シャドウやライトキャッシュの初期化など多岐にわたる
詳しくはソースを追ってほしい
581~588 PostInitViewFamily_RenderThread()など 未実装っぽい
599~606 GetEyeAdaptation() const関数を呼び出してるが取得したものを格納してないので意味がない?
608~631 if (ShouldPrepareDistanceFieldScene()) DistanceField系(AO、Shadowなど)が使用されているとこのブロックが有効になる
ただし、IntelHD4000シリーズは3Dテクスチャ生成に失敗するらしく、強制的に無効化される
処理内容はDF系技術で必要になるView空間に整列したVolumeテクスチャの作成、更新など
720~727 FGlobalDynamicVertexBuffer::Get().Commit() 動的な頂点バッファとインデックスバッファのコミット処理
主にパーティクル用の頂点、インデックスバッファをアンロック(アンマップ)
732~737 Scene->FXSystem->PreRender() エフェクトの描画事前処理
GPUパーティクルの更新を主に行う
平面リフレクションが有効だったりレンダースレッドが有効な場合はここでは行わない
767~788 RenderPrePass() Z Pre-Pass レンダリングを行う
807 SceneContext.ResolveSceneDepthTexture() Z Pre-Passで描画した深度バッファのリゾル
圧縮深度の展開やMSAAのリゾルブ処理
811 ComputeLightGrid() ライトグリッドの計算
シェーダコードから察するに、Clusterdライティングのためのライトリンクリストを生成している
主に半透明のForward Rendering用
821~826 SceneContext.AllocGBufferTargets() GBufferためのメモリ確保
830~841 RenderOcclusion() オクルージョンに関するレンダリング
低解像度バッファに対するオクルージョンクエリなど
階層型深度バッファもここで作る
Z Pre-Passですべてが深度バッファに描画されている場合に有効になる
SSAOの並列処理を行う場合はここで処理を開始
845~849 RenderShadowDepthMaps() シャドウマップの描画
昔と違ってアトラス化したシャドウマップにレンダリングする
852~857 ClearLPVs() Light Propagation Volumeで使用するバッファをクリアする
859~863 RenderCustomDepthPassAtLocation() CustomDepthをベースパス前に描画する
r.CustomDepth.Orderで0を設定するとこの段階で描画する
DBufferパスで使用することができる
865~868 ComputeVolumetricFog() ボリュームフォグを適用するため、空間分割した3Dテクスチャにライティングを行う
平行光源1灯のみ(多分)、ライトファンクションに対応している
870~878 RenderForwardShadingShadowProjections() Forward Renderingの場合にシーンにシャドウを投影する
Forwardでは複数のシャドウをマテリアル計算時に処理しづらいので、ホワイトバッファという真っ白なバッファに影による減衰を予め計算しておく
885~900 if (bDBuffer) DBufferが有効な場合にDeferred Decalを描画する
902~934 AllocateDeferredShadingPathRenderTargets() Deferred Shading用のレンダーターゲットを確保
条件によってはGBufferや半透明用のボリュームライトバッファもクリアする
936~946 BeginRenderingGBuffer() レンダーターゲットの設定
ワイヤーフレーム表示の場合はMSAAバッファを使用する
951~958 RenderBasePass() ベースパスの描画
複数スレッドで並列にコマンドを積むようになってるっぽい
ベースパス終了後に深度バッファのリゾル
976~985 ClearGBufferAtMaxZ() 描画されなかった部分のGBufferのクリア
通常は必要ないはずだが、GBuffer表示の対応のためか?
987 VisualizeVolumetricLightmap() ボリュームライトマップの可視化
989 ResolveSceneDepthToAuxiliaryTexture() 深度バッファを別バッファにリゾルブする
深度テストしながらフェッチできないハード向け
991~1002 RenderOcclusion() ベースパス後のオクルージョン描画
830行目でレンダリングを行ってない場合はここでレンダリング
1012~1017 RenderShadowDepthMaps() シャドウマップやボリュームフォグの描画
オクルージョン描画がベースパス後の場合はここで行う
1019~1023 RenderCustomDepthPassAtLocation() ベースパス後のカスタムデプス描画
通常はここで描画される
1028~1038 FXSystem->PostRenderOpaque() ベースパス後のエフェクト描画
主に衝突判定をとるGPUパーティクルの更新を行っている
1042~1054 RenderVelocities() 速度バッファを描画する
1057 CopyStencilToLightingChannelTexture() ステンシルバッファに書きこまれたライトチャンネル情報をコピー
1059~1061 GfxWaitForAsyncSSAO() 並列処理しているSSAOのレンダリングを待つ
1065~1081 ProcessAfterBasePass() ベースパス後のポストプロセス
まだ実行されていない場合、Deferred DecalやSSAOの処理を行う
1084~1101 SetRenderTargetsAndClear() ステンシルバッファのみクリア
1111~1114 RenderIndirectCapsuleShadows() カプセルシャドウによる間接照明計算
SceneColorとSSAOに乗算合成される
この段階ではSceneColorはベースパスのエミッシブが書き込まれているはず
1118 RenderDFAOAsIndirectShadowing() DistanceFieldAOの描画
ついでにベントノーマルも計算し、この後数段で使用する
1121~1124 ClearTranslucentVolumeLighting() 半透明用のボリュームライトをクリアする
1127 RenderLights() ライトのレンダリング

ここから RenderLights() 関数内に一旦入ります。
ソースコードは以下です。

Engine/Source/Runtime/Renderer/Private/LightRendering.cpp (316)

行数 コード片 内容
329~332 GatherSimpleLights() パーティクルライトをSimpleLightとして集める
主にタイルベースライティング用
340~365 LightSceneInfo->ShouldRenderLight() 描画すべきライトのリストを作成する
368~375 SortedLights.Sort() シャドウあり、ライトファンクションありなどでライトをソートする
420~424 WaitComputeFence(TranslucencyLightingVolumeClearEndFence) 非同期実行している半透明用ライトボリュームのクリアを待つ
435~455 RenderTiledDeferredLighting() タイルベースのDeferred Lightingを実行する
457~461 RenderSimpleLightsStandardDeferred() SimpleLightをレンダリングする
タイルベースレンダリングを実行している場合はここでのレンダリングは行わない
463~478 RenderLight() シャドウなし、ライトファンクションなしのライトをレンダリング
480~495 InjectTranslucentVolumeLightingArray() シャドウなしライト、SimpleLightを半透明用ライトボリュームに描画する
ジオメトリシェーダを用いて各スライスに1ライト1DrawCallで描画
499~559 UpdateLPVs() LPVが有効な場合、LPVの更新を行う
Reflective Shadow Mapsと直接光をボリュームに流し込む
569 for (int32 LightIndex = AttenuationLightStart;... ここからシャドウあり or/and ライトファンクションありのライトごとの処理
592~631 RenderShadowProjections() ホワイトバッファへシャドウによる減衰を描画する
シャドウはライティング計算時に行うのではなく、一旦フレームバッファと同サイズのホワイトバッファに描き込む
また、半透明用ボリュームライトやハイトマップライトへの描画も行っている
633~637 HeightfieldLightingViewInfo.ComputeLighting() ハイトフィールドのライティング計算
ハイトフィールドだけライティング結果をアトラステクスチャにレンダリングしてる
640~657 RenderPreviewShadowsIndicator() ライトファンクションによる減衰をホワイトバッファに描き込む
659~662 CopyToResolveTarget() ホワイトバッファのリゾル
664~669 InjectTranslucentVolumeLighting() シャドウが有効でない場合はここで半透明用ライトボリュームへレンダリング
674~677 RenderLight() 直接ライトのレンダリング

ライトレンダリングはここまでです。
以降は再び DeferredShadingRenderer.cpp に戻ります。

行数 コード片 内容
1133 InjectAmbientCubemapTranslucentVolumeLighting() Ambient CubeMapを半透明用ライトボリュームへレンダリング
1137 FilterTranslucentVolumeLighting() 半透明用ライトボリュームのフィルタリング
3x3x3のボックスフィルタ
1142~1153 ProcessLpvIndirect() ライティング後のポストプロセス処理
現在はLPVの適用のみ
1155 RenderDynamicSkyLighting() 動的スカイライトの描画
1159 ResolveSceneColor() ここまで描画したSceneColorのターゲットをリゾルブする
通常はRHIのリゾルブ命令を使用するが、モバイルエミュレートの必要がある場合は特殊処理
1162 RenderDeferredReflections() ポストプロセス的に環境リフレクションを適用する
Screen Space Reflectionの計算もここで
1169~1173 ProcessAfterLighting() リフレクション適用後のポストプロセス
現在はScreen Space Subsurface Scatteringのポストプロセス処理のみ
1180~1185 RenderLightShaftOcclusion() ライトシャフトの遮蔽情報の描画
これがなくてもライトシャフトは有効化できるが、カメラ近くに遮蔽物があった場合の品質に差が出る
1188~1212 RenderAtmosphere() Atomospheric Fogの描画
1217~1222 RenderFog() Height Fogの描画
ボリュームフォグもここで適用される
1224~1236 RenderPostOpaqueExtensions() 不透明描画後の追加処理
ユーザがC++で指定できるレンダリング処理っぽい?
ComputeShaderのDispatchもできるようだ
1252~1261 RenderTranslucency() 半透明オブジェクトの描画
Separate Translucencyの場合は別バッファに描画して合成まで行う
1267~1275 RenderDistortion() Refractionが有効なマテリアルを描画
1280~1286 RenderLightShaftBloom() ライトシャフトを描画する
遮蔽情報が描画されているかどうかで結果が異なる
1288~1293 RenderOverlayExtensions() 多分ユーザが実行可能なレンダリングパス
RenderPostOpaqueExtensionsと同様
1295~1303 RenderDistanceFieldLighting() DistanceField系のライティング処理(GIなど)
1306~1318 RenderMeshDistanceFieldVisualization()
RenderStationaryLightOverlap()
デバッグ用の情報ビジュアライズ
メッシュDFとStationaryLightのオーバーラップ情報
1336~1341 GPostProcessing.Process() ポストプロセスの描画
後述
1361~1366 RenderFinish() 描画の終了処理
デバッグビジュアライズなど

以上です。
ここからはポストプロセスです。
Engine/Source/Runtime/Renderer/Private/PostProcess/PostProcessing.cpp (1262) この場所からです。

行数 コード片 内容
1385~1451 AddPostProcessDepthOfFieldGaussian()
AddPostProcessDepthOfFieldCircle()
AddPostProcessDepthOfFieldBokeh()
被写界深度(DoF)の描画
BokehDoFの場合はSeparate Translucencyバッファとの合成もここで行う
1453~1463 RegisterPass(new(FMemStack::Get()) FRCPassPostProcessBokehDOFRecombine(bIsComputePass)) BokehDoFではない場合はここでSeparate Translucencyを合成する
1465 AddPostProcessMaterial(Context, BL_BeforeTonemapping, SeparateTranslucency) トーンマップ前のポストプロセスマテリアルを適用する
1469~1482 AddTemporalAA() TemporalAAを適用する
1484~1544 FRCPassPostProcessMotionBlur() モーションブラーを適用する
[A Reconstruction Filter for Plausible Motion Blur]を改良したものを利用
スケール値を変更した2パス描画によってより高クオリティのブラーも適用できる
r.MotionBlurSeparable に 1 を指定すれば有効になる
1546~1559 FRCPassPostProcessVisualizeMotionBlur() モーションブラーとブルームのビジュアライズ
1562~1572 FRCPassPostProcessDownsample() SceneColorバッファを半解像度バッファにダウンサンプリング
1574~1609 FRCPassPostProcessHistogram() ダウンサンプルしたSceneColorを利用し、画面のヒストグラムを求める
1612~1625 CreateDownSampleArray() ブルーム用に半解像度SceneColorから複数回のダウンサンプリングを行う
Eye Adaptationが有効な場合はこの中でセットアップを行う
1628~1653 AddPostProcessBasicEyeAdaptation()
AddPostProcessHistogramEyeAdaptation
Eye Adaptationを実行する
ブルームが無効の場合はここでダウンサンプルを行う
1655~1756 AddBloom() ブルームを適用する
レンズフレア、レンズブラーもこの関数内で行う
1760~1790 AddTonemapper() トーンマップを適用する
1792~1795 AddPostProcessAA() FXAAを適用する
1797~1804 FRCPassPostProcessVisualizeDOF() DoFのビジュアライズ
1808~1823 AddGammaOnlyTonemapper() フルポストプロセスでない場合、Separate Translucencyの合成と簡易トーンマッパーを適用する
1826~1906 FRCPassPostProcessVisualizeComplexity()など 各種ビジュアライズなど
1908 AddPostProcessMaterial(Context, BL_AfterTonemapping... トーンマップ後のポストプロセスマテリアルを適用する
1910~1982 FRCPassPostProcessSubsurfaceVisualize()など 各種ビジュアライズなど
1986~2025 FRCPassPostProcessUpscale() スクリーンパーセンテージが有効な場合はここでアップスケール

以上となります。
おつかれさまでした。

通常、UE4を使う場合はこれらのパスの順序を意識する必要もないのですが、どうしても処理を入れ替えたい、無駄な処理を省きたいなどの場合にはソースコードを読まなければなりません。
本記事がそのような方の一助になれば幸いです。

明日は @negimochi さんで、「Sequencer 構造解説とカスタムトラック追加 (UE4.18版)」です。

レイヤーインスタンシングのまとめ

Substance Painter 2017.4 がリリースされました。
SPの大型アップデートとしては多分今年最後です。以降はバグフィックスのみでしょう。

今回のアップデートではプラグインとしてDCC Live Linkが追加されています。
名前の通り、他のDCCツール(MayaやMODOなど)でメッシュを表示しながらSPでペイントをするためのもののようです。
レンダリングしながらペイントとかもできるのでしょうかね?
ゲーム開発の現場の場合、Maya上にゲームと同じレンダリング状態を提供しているチームにとっては便利かもですね。

さて、今回のアップデートの目玉機能はというと、やはりレイヤーインスタンシングでしょう。
これまでのSPでは、テクスチャセット(FBX上のマテリアル)が別のものに同じマテリアルを割り当てたい場合、コピペして対応するしかありませんでした。
ある程度絵面が固まった終盤でならコピペでも行けるかもですが、序盤だと元のマテリアルを何度も修正すると思いますのでコピペが多発します。
このような状態を回避することができるのが今回のインスタンシング機能です。

使い方は簡単。
まず、インスタンス元のレイヤー(塗りつぶしレイヤーやフォルダ)を選択し、マウス右クリック→[Instantiate across texture sets...]を選択します。
f:id:monsho:20171125195032p:plain
すると、以下のようなインスタンシングウィンドウが表示されます。
f:id:monsho:20171125195235p:plain
インスタンシング先レイヤーを選択して[OK]ボタンを押すと、選択していたレイヤーがインスタンス先のテクスチャセットの最上位レイヤーにインスタンシングされます。
f:id:monsho:20171125195532p:plain
インスタンス元/先レイヤーには文書のようなアイコンが設定されます。
このアイコンをクリックするとインスタンスプロパティウィンドウが表示され、このレイヤーのインスタンス元と先がわかりやすいように一覧表示されます。
f:id:monsho:20171125200032p:plain
このプロパティウィンドウから編集中のテクスチャセットを切り替えることも可能になっています。
インスタンスレイヤーの調整はインスタンス元からしかできないので、どこからインスタンスしたのかわからないという状況になったら押してみるとよいでしょう。

なお、インスタンスレイヤーをさらにインスタンスすることもできます。
f:id:monsho:20171125202824p:plain
しかし闇雲にインスタンス機能を使用してもあとで迷ってしまうのがオチです。あまり深くインスタンシングしないようにしましょう。

インスタンス先ではインスタンス元のレイヤーの内容を引き継ぎます。
引き継がれるのはマスクやフィルタなどほとんどすべてです。
インスタンス元がフォルダの場合、フォルダ内の設定も基本的にすべて引き継がれます。
インスタンス元にフィルタを追加したり、フォルダに新しいレイヤーを配置したりすればそれらも反映されます。

そしてインスタンス先で新たにマスクを追加することが可能です。
例えば以下のようにインスタンス元レイヤーにEdge Wearマスクを適用していると、インスタンス先にも適用されます。
f:id:monsho:20171125203928p:plain
ここでBodyには元のマスクに加えて別のマスクも追加したいということもあるでしょう。
このような場合はインスタンス先レイヤーでマスクを設定、まずは塗りつぶしフィルタで真っ白にしておきます。
こうすることで元のマスク情報を取得できますのでこの状態に別のジェネレータなどを適用します。
以下の例ではGlass Edge Wearを減算で適用しています。
f:id:monsho:20171125204227p:plain
このようにインスタンス元の状態を生かしつつマスクの追加が可能になります。
残念ながらインスタンス先でペイント側にはフィルタが適用できないので、適用したい場合はパススルーレイヤーを追加してそちらでフィルタをかけましょう。

インスタンスはほとんどの情報をインスタンスできますが、例外が存在します。
ペイントレイヤーは残念ながらインスタンス対象外です。ペイントフィルタも同様です。
まあ、ペイントレイヤーをインスタンスできてもどう使えばいいのかわかりませんがね…
もちろん、パーティクルブラシもインスタンスできないということになります。

もう1つの例外はアンカーポイントです。
アンカーポイントは特にノーマル情報を元にしてマスクを生成したい場合に用いられます。
アンカーポイントを使わないと、使用できるノーマル情報はベイクしたテクスチャの情報に限られますが、アンカーポイントを使うことでペイントした結果生成されたノーマル情報も使えるようになります。
大変便利な機能ではあるのですが、これは特定条件でのみインスタンス可能となります。
それは、フォルダをインスタンスしていること、そのフォルダ内からアンカーポイントを参照している場合です。
つまり、このような状態です。
f:id:monsho:20171125210043p:plain
この状態であればインスタンス先でも同じ効果を得ることができます。

もしもインスタンス元が普通の塗りつぶしレイヤーで、そこでアンカーポイントが参照されているとどうなるかというと、こうなります。
f:id:monsho:20171125210450p:plain
画像にもあるように、インスタンス元のアンカーポイントが不正扱いされ、結果としてインスタンス元/先ともにアンカーポイントが無視されます。
これらのことから、インスタンスレイヤーはできるだけフォルダで利用しておく方がよいのではないかと思います。

レイヤーインスタンシングについての検証まとめは以上になります。
もし他にも情報がありましたらこっそり教えていただけるとありがたいです。

小ネタ 簡易ワームホール的エフェクト

なんか思いついたので小ネタでエフェクト用テクスチャを簡易で作ってみるテスト。
表題通り、ワームホール的な奴です。
作ったのはこちら。

f:id:monsho:20171116083558g:plain

ブラウザで見ると奥の方が動いてないように見えるけど…まあいいや。

ノードはこちら。

f:id:monsho:20171116083807p:plain

Transform2DのOffsetパラメータ内はこうなってます。

f:id:monsho:20171116083854p:plain

あとはSubstance Playerで再生するだけ。
Frequencyパラメータで周期の変更もできます。
ちゃんとループもするのでエフェクトでも使いやすいでしょう。

以上、小ネタでした。

Substance Automation Toolkit で Pixel Processor を作成する

前回、Substance Automation Toolkit (SAT) を使ってノードを接続する方法について解説しました。
しかしこの手法、普通にマテリアルを作成するには不向きです。
テンプレート的な処理を大量に作る分にはいいのですが、1点もののマテリアルを作るなら普通にSubstance Designerを使った方がよいでしょう。

しかし現在のSATには式グラフを比較的簡単に生成する機能が提供されています。
sbsMathというモジュールがそれです。
SATの標準モジュールだけではプログラムコードを使ってノードを繋げることしかできませんが、sbsMathを利用することでプログラムで数式を実装する感覚で式グラフを作成できます。
が、このモジュールはなぜかSATの標準モジュールとして提供されていません。
いや、正確には提供されているのですが、なぜか "MyDocument/Allegorithmic/Substance Automation Toolkit" 内にインストールされます。

sbsMathを利用しているサンプルは同じフォルダ内にある raytracer.py です。
このサンプルは Pixel Processor を利用して各ピクセルごとにレイトレースして球をライティングしてレンダリングするサンプルです。
複雑に見えますが、sbsMath の機能を一通り使っているのでサンプルとしては十分でしょう。
とは言え、いきなりサンプルを全部解説、というのもあれなので、とりあえずより簡易なサンプルで解説しましょう。

今回作成したサンプルは、2枚のノーマルマップの各ピクセル内積を取るものです。
何かに使えるのか?という話をされると…使い道は全くないんですが、これを Pixel Processor で作成しようとすると意外と面倒だったりします。

内積計算自体は式ノードに存在するのでそのまま使えばいいのですが、ノーマルマップをサンプルした値はそのままベクトルとして使用できません。
カラーマップは負の値を保存できないため、ノーマルマップに格納されている値は -1~1 を 0~1 に圧縮しています。
つまりベクトルとして利用するには 0~1 を -1~1 に伸張しなければなりません。
そのための計算式は以下の通りです。

v = color * 2 - 1

まあ、正直な話、この程度の処理ならやっぱりSDで作った方が早いような気もしますがね…

とにかく、コードを見ていきましょう。
まず、インポートするモジュールですが、sbsMathを追加する必要があります。

import sbsMath.sbsmath as sm
import sbsMath.sbsmath_tools as st

sbsmathとsbsmath_toolsをそれぞれ sm, st という名前空間で取り扱います。

次にノードグラフの作成部分ですが、基本的には前回と同じです。
作成するのはカラーの入力ノードを2つ、それぞれID normal_0, normal_1 とします。
出力ノードはグレイスケールです。
最後の1つは Pixel Processor です。

    # pixel proc
    pix_proc_node = sbsGraph.createCompFilterNode(aFilter = sbsenum.FilterEnum.PIXEL_PROCESSOR,
        aGUIPos      = input_normal_0.getOffsetPosition(xOffset),
        aParameters  = {sbsenum.CompNodeParamEnum.COLOR_MODE:sbsenum.ColorModeEnum.GRAYSCALE})

出力はグレイスケールにしておきます。

問題なのは Pixel Processor への入力です。
このノードは最初の段階では入力ピンが1つしかありませんが、そのピンへノードを繋ぐと次のピンが出現するという仕組みになっています。
そのため、あるノードを Pixel Processor の入力ピンへノードを接続する場合、名前を直接指定する必要があります。

    # connection
    sbsGraph.connectNodes(aLeftNode = input_normal_0, aRightNode = pix_proc_node,
        aRightNodeInput = 'input')
    sbsGraph.connectNodes(aLeftNode = input_normal_1, aRightNode = pix_proc_node,
        aRightNodeInput = 'input:1')

最初のピンは input という名前で接続できます。
1つ目のピンへの接続はピンの名前を指定しなくても勝手に接続されるのでさほど問題はありません。
これに対して2つ目のピンは input:1 という名前で指定する必要があります。
ここから先に接続する場合も input:n という形で順次接続できます。
接続順番も、かならず0番から進めてください。1つ以上飛ばして接続しようとすると失敗します。

では、Pixel Processor の式グラフの作成です。命令は簡単で、以下のようにします。

    # pixel proc function
    st.generate_function(NormalMapDot, sbsDoc, fn_node = pix_proc_node.getPixProcFunction())

sbsmath_tools.generate_function() を使うと、特定の式グラフに対して式ノード生成関数をを走らせます。
第1引数に渡している NormalMapDot という関数がノードの作成を行ってくれます。
実装は以下のようになっています。

def NormalMapDot(fn):
    pixel_pos = fn.variable('$pos', widget_type=sbsenum.WidgetEnum.SLIDER_FLOAT2)

    normal0 = sm.create_color_sampler(pixel_pos, 0)
    normal1 = sm.create_color_sampler(pixel_pos, 1)

    normal0 = sm.swizzle_float3(normal0, [0, 1, 2])
    normal1 = sm.swizzle_float3(normal1, [0, 1, 2])

    normal0 = normal0 * fn.constant([2.0, 2.0, 2.0]) - fn.constant([1.0, 1.0, 1.0])
    normal1 = normal1 * fn.constant([2.0, 2.0, 2.0]) - fn.constant([1.0, 1.0, 1.0])

    dot_p = sm.dot(normal0, normal1)
    return fn.generate(dot_p)

sbsmathモジュールには式グラフで使用可能なノードが登録されています。
ここではベクトル要素のスイズルを行う SwizzleFloat3 や内積演算の Dot を使っています。
ノードや計算式の結果は変数に登録することができ、最終出力をgenerate()関数に引き渡せば自動的にグラフが生成されるというわけです。
ね、簡単でしょ?

作成したグラフは以下のようになります。
f:id:monsho:20171115003858p:plain
そして Pixel Processor の中身は以下です。
f:id:monsho:20171115003952p:plain
割といい感じにノードの配置もしてくれてますね。
ノード数も少ないので、やはりこれくらいならSD上で作成した方が早いかもしれませんが、パッと見でどういう計算しているのかわかりにくいのもノードベースならではかなとも思います。

さらに複雑な計算になるとノードベースではやりたくなくなるかもしれませんので、特にエンジニアの方はPythonでの生成法も覚えておくとあとあと便利かもしれませんよ。

Substance Automation Toolkit の紹介

Substance Designer 2017のライセンスを持っている方はSubstance Automation Toolkit(以下SAT)の使用が可能です。
f:id:monsho:20171103103811p:plain Allegorithmic公式サイトの自身のアカウントからDLできるはずです。

このツールキットはその名の通り、自動化を主な目的としたツール群です。
ドキュメントは以下です。

Automation Toolkit Home - Substance Automation ToolKit - Allegorithmic Documentation

Substance Designer 6以前のライセンスであればSubstance Batch Tools(以下SBT)というものが使えましたが、SATはSBTを引き継いで機能を追加したものと考えてください。

同梱されているコマンドラインツールは以下のものがあります。

sbsbaker

メッシュからAO、Normal等のメッシュ固有のマップを生成します。
ハイポリメッシュの指定もできるので、マップのベイクを一括で行いたい場合に使えます。

sbscooker

.sbsファイルから.sbsarファイルを生成するツールです。
SD作業者がSP作業者にマテリアルやフィルタを提供する場合、.sbsarで提供するのが基本です。
このツールを使えば自動的に更新された.sbsファイルから.sbsarファイルを生成するようにすることが可能です。

sbsmutator

.sbsファイルに修正をかけることができるツールのようです。
例えば.sbsで使用しているイメージデータを入れ替えたり、パラメータを変更したりして別の.sbsを生成することができるようです。

sbsrender

.sbsarからイメージをレンダリングするツールです。
SDからテクスチャイメージをエクスポートするのを自動化することができます。
入力イメージ、パラメータ変更もできるので、テクスチャエクスポートをしたいだけならsbsmutatorは不要です。

sbsupdater

.sbsの対応バージョンを更新するツールです。
SDが更新されると、以前作成した.sbsを読み込む際に更新処理が入ります。
SDで使用する際にいちいちそれらが出力されるのは面倒なので、このツールで一括更新してしまうとよいでしょう。

多分、sbsupdater以外はSBTにもあったツールだと思います。

SATではこれらのコマンドラインツールに加え、Python用のモジュールが追加されています。
PythonAPIによってこれらのツールと同じことができるようで、かなり便利になりました。

また、このモジュールによって.sbsファイルの生成もできるようになっています。
通常であればSDを立ち上げて作成する.sbsですが、PythonAPIによってノード追加、接続などができるわけです。
使い道は…これがなかなか難しい。
簡単な接続ならPythonでも簡単に行えますが、SDを使った方がより簡単です。
複雑なマテリアルを作成するならそれこそSD使った方がいいです。
あるとすると、2つのマテリアルを指定のマスクイメージでブレンドするというノード接続において、マテリアルをいろいろ変化させて様々な組み合わせのマテリアルを作成したい場合でしょうか。
C#などでUIを作り、自身のライブラリ内のマテリアルとマスクイメージを選択できるようにしてとっかえひっかえ組み合わせを試すとか?

まあ、イマイチ使い道が思い浮かばないのですが、簡単なPythonコードを紹介しましょう。

# coding: utf-8
import os
import sys
import pysbs

from pysbs import python_helpers
from pysbs import context
from pysbs import sbsenum
from pysbs import sbsgenerator

def CreateHelloWorld(destFileAbsPath):
  aContext = context.Context()

  sbsDoc = sbsgenerator.createSBSDocument(aContext,
    aFileAbsPath = destFileAbsPath,
    aGraphIdentifier = 'TestMaterial')

  sbsGraph = sbsDoc.getSBSGraph('TestMaterial')

  startPos = [48, 48, 0]
  xOffset = [192, 0, 0]
  yOffset = [0, 192, 0]
  xyOffset = [192, 96, 0]

  # input nodes
  input_0 = sbsGraph.createInputNode(aIdentifier = 'input_0',
    aGUIPos = startPos,
    aColorMode = sbsenum.ColorModeEnum.COLOR,
    aAttributes = {sbsenum.AttributesEnum.Label: 'Input0'})
  input_1 = sbsGraph.createInputNode(aIdentifier = 'input_1',
    aGUIPos = input_0.getOffsetPosition(yOffset),
    aColorMode = sbsenum.ColorModeEnum.COLOR,
    aAttributes = {sbsenum.AttributesEnum.Label: 'Input1'})

  # noise
  noise_node = sbsGraph.createCompInstanceNodeFromPath(aSBSDocument = sbsDoc,
    aPath = 'sbs://crystal_1.sbs/crystal_1',
    aGUIPos = input_1.getOffsetPosition(yOffset))

  # blend
  blend_node = sbsGraph.createCompFilterNode(aFilter = sbsenum.FilterEnum.BLEND,
    aGUIPos = input_1.getOffsetPosition(xOffset),
    aParameters = {sbsenum.CompNodeParamEnum.BLENDING_MODE: sbsenum.BlendBlendingModeEnum.COPY,
    sbsenum.CompNodeParamEnum.OPACITY: 0.8},
    aInheritance = {sbsenum.CompNodeParamEnum.OUTPUT_SIZE: sbsenum.ParamInheritanceEnum.PARENT})

  # output nodes
  output_node = sbsGraph.createOutputNode(aIdentifier = 'BlendResult',
    aGUIPos = blend_node.getOffsetPosition(xOffset),
    aOutputFormat = sbsenum.TextureFormatEnum.DEFAULT_FORMAT,
    aAttributes = {sbsenum.AttributesEnum.Description: 'noise masked blending result.'})

  # connection
  sbsGraph.connectNodes(aLeftNode = input_0, aRightNode = blend_node,
    aRightNodeInput = sbsenum.InputEnum.SOURCE)
  sbsGraph.connectNodes(aLeftNode = input_1, aRightNode = blend_node,
    aRightNodeInput = sbsenum.InputEnum.DESTINATION)
  sbsGraph.connectNodes(aLeftNode = noise_node, aRightNode = blend_node,
    aRightNodeInput = sbsenum.InputEnum.OPACITY)
  sbsGraph.connectNodes(aLeftNode = blend_node, aRightNode = output_node)

  sbsDoc.writeDoc()

  return True

if __name__ == "__main__":
  destFileAbsPath = python_helpers.getAbsPathFromModule(sys.modules[__name__], 'sample/TestMaterial.sbs')
  CreateHelloWorld(destFileAbsPath)

まずpysbsからコンテキストを取得し、これを元にして.sbsファイルを生成します。これはドキュメントと呼ばれます。
ドキュメントには複数のグラフを作成することができます。これはそのままSubstanceのグラフです。
今回は TestMaterial.sbs というドキュメントに TestMaterial というグラフを作成しました。

作成したグラフ内に各ノードを作成していきます。
まずは入力ノードを2つ作成します。createInputNode()関数を用いています。
なお、ノードの位置は直接指定することもできれば、あるノードからの相対位置も指定できます。

次に適当なノイズノードを持ってきます。
createCompInstanceNodeFromPath() 関数を使用することで、特定のパスにある.sbsから特定のノードを取得できます。
SDの標準ノードについては "sbs://" から始まるパスでOKのようです。

次はブレンドノード。
組み込みノードについては createCompFilterNode() 関数で生成できますが、一部のノード(入力や出力など)は特定の関数があります。

ノードの最後は出力ノードです。Descriptionにコメントを残すことも可能です。

コメントと言えば、フレームも作成できるみたいですね。

配置したノードはそれだけでは置かれているだけなので、connectNodes() 命令で接続を行います。
左と右のノードと、それぞれどこのピンに接続するかを指定しますが、ピンが1つだけの場合は省略可能です。
なお、存在しないピンに入出力しようとすると例外を発生させます。入出力のどちらが悪いのかは教えてくれません。うぼぁぁ

最後にドキュメントを writeDoc() すれば.sbsが出力されます。
出力された.sbsがこちらです。

f:id:monsho:20171103125009p:plain

ちゃんと接続されてますね。
まあ、正直な話、これだけコード書くよりノード接続した方が速いです。
なので、こういうことをしたいのであればPythonを使う理由はほとんどありません。
しかし、ノード接続では面倒なものもありまして…
次回はその辺の、ノード接続では面倒なものを簡単に作成する方法について書きます。

USDを使ってみた話

CGアニメでおなじみのPixer社がオープンソースで公開している汎用的なシーン記述フォーマット「Universal Scene Description (USD)」について、使ってみたので感想や引っかかったこと、メリット・デメリットなんかをつらつらと書いていきます。

USDについては元Pixer社の手島さんが今年のCEDECで基本的な部分を講演されています。

ピクサー USD 入門 新たなコンテンツパイプラインを構築する

大変わかりやすく、USDの利点もうまく語られていますので、興味がある方はご一読ください。

GitHubソースコードが公開されていますので、こちらをビルドすれば誰でも使用できるようになります。

GitHub - PixarAnimationStudios/USD: Universal Scene Description

ライセンスは改変Apache2.0ライセンスとなっているようです。
Apache2.0ライセンスは改変した場所を明示する必要があったはずなので、ゲームのランタイムで使用するにはちょっと不向きかもしれません。
まあ、ゲーム開発の場合は社内ツールとかで使うことになると思いますのであまり気にしなくても大丈夫だとは思います。

Windowsでのビルドは結構大変ですが、最近はかなり難易度が下がりました。
詳しくはこちらの記事をお読みください。

Pixar USD の Windows ビルド方法(2017/9 版) - Qiita

さて、ここまでが前提。
ここからは、MODO用の簡易メッシュエクスポータとそこから独自メッシュ形式へのコンバータを作成した際にわかったことなどをつらつらと書いていきます。
なお、私の書いたコードは以下になります。

GitHub - Monsho/ModoUsd: USD Exporter for MODO10

GitHub - Monsho/D3D12Samples

後者のUSDtoMeshは前者のエクスポータで出力したUSDファイルのみで確認していますので、他のどんなUSDファイルでも動作するかは保証しかねます。

デバッグビルドがうまくいかない

結局解決してないのがこの問題。
前述のWindowsビルド方法はRelease版のビルドはできるのですが、この方法ではデバッグ版のビルドはできません。デバッグ版のライブラリが生成されないわけです。

ライブラリはRelease版を使うとして、これをリンクするプロジェクトがデバッグ版だとどうなるかというと、単純にビルドが通りません。
原因はインクルードするヘッダファイルに_Debugなどの定義を用いて分岐しているので、USDライブラリはRelease、アプリはDebugという方法がどうもうまくいかないのではないかと思われます。

なお、無理やりDebugでビルドを通したらUSD使用時にクラッシュしたので、やっぱりちゃんとDebugビルドを作成しなければならないようです。
VSプロジェクト作成とかちゃんとやるべきだろうとは思いますが、とりあえず使ってみる分には自信のプロジェクトのDebug設定をRelease設定からコピー、最適化だけO0にするなどで対処するのが一番の近道じゃないかと思います。

サンプルはあまり多くない

まだ使っている人が少ないためだと思いますが、やはりサンプルが少ないです。
GitHubで公開されているソースコードにはいくつかのサンプルがtutorrialとして置いてあります。
extras/usd 内にいつくかあるので、まずはこれでUSDのファイルフォーマットやHello Worldなんかを学ぶとよいでしょう。

ただしこれらはPythonコードがほとんどで、C++コードはありません。
C++での使用方法も基本的には同じですが、やはりサンプルは欲しいところです。

私が参考にしたのはUnreal Engine 4のUSDインポータ、およびMayaのUSDプラグインです。
UE4の該当ソースコードは Engine/Plugins/Editor/USDImporter にあります。
また、MayaプラグインソースコードはUSDの third_party/maya 内にあります。
インポート/エクスポートプラグインや自前フォーマットへのコンバータを作成するのに十分なサンプルだと思います。
もっと複雑なことをやろうと思うとサンプルが足りなくなるのではないかとは思いますが、ゲーム開発現場だけなら何とかなるのではないでしょうか?

USDViewがとにかく便利

USDエクスポータを作成する際に非常に役に立ったのがUSDViewです。
USDをインストールすると標準でついてくるViewerで、メッシュデータの表示も可能です。
アニメーションは…どうなんでしょう?サンプルが見当たらなくて試せてません。USDViewのインターフェースを見る限りはアニメーションも可能だと思います。

エクスポートしてポリゴン等が正常に出力されているか、各種データが正しいかを比較的簡単に確認できるViewerの存在は大変便利です。
そもそも、これがないと正常に出力されているか確認する手段がほとんどないので頼らざるを得ないという部分もあります。

エクスポータを書く際には必ずUSDViewで確認する、という手順は必要だと思います。

エラーがわかりにくい

何らかの処理を行った場合にそれがうまくいってるのかいってないのかがわかりにくいと感じました。
この辺は設計の文化の違いもあると思いますので一概に悪いというわけではないのですが、慣れないと感じたのは事実です。

まず迷ったのはパスです。
USDでは各種ノードをSdfPathというスラッシュ区切りのパスで指定します。ディレクトリ構造みたいな形ですね。
形式が形式なだけに、命名規則もほぼディレクトリと似た感じです。
試した結果、数字始まりはダメ、空白やいくつかの記号もアウトです。
NGな文字列で生成されたSdfPathでは正常なノードは生成されず、それにアクセスするとアクセス違反でクラッシュします。

また、一部のデータは与えられるデータの形式が決まっていて、それ以外のデータを提供しても何も起こりません。
クラッシュしないだけマシですが、エクスポートしてみたら何も出力されてない、という状況になります。

VSのデバッグ機能でUSDのパラメータは現段階ではまともに見ることはできないので、エラーのわかりにくさとデバッグしにくさで軽く扱うには苦労すると思います。

全体的な感想

USDは思想については大変共感できるところで、Autodesk主導でいろいろ困ったちゃんなFBXの代わりになる可能性は十分にあると思います。
しかし、まだ実践に使うには不安が残る感じです。
ソースコードは公開されているので何かあったらソースを読むという手段はあるものの、なかなか大きなものなので読むとなるとなかなか大変です。

個人的にはこのまま使っていこうとは思っていますが、将来的に見ても仕事で使うかは今のところ不明です。

余裕ができたらMODOからスケルトン情報やアニメーション情報も出力できるようにしたいとは思いますが、いつになるかは不明ですね。

Substance Designer 2017.2 の新ノード その他

引っ越し一発目は[Flood Fill]ノード以外の新ノードを紹介。

・Cube 3D

名前の通り3次元のキューブ形状を2D画像として出力できるノードです。

f:id:monsho:20171022143909p:plain

Yaw, Pitchの回転、全体のスケール、各軸のサイズを指定できます。
Roll回転はありません。
軸はZ-upとなっているので、高さを変更したい場合は[Size]→[Z]を変更しましょう。

3DのDCCツールではないため、これによって3次元形状をこねこねできるわけではないですが、新しい特殊な[Shape]ノードとしてパターン作成に使用できます。

・Shape Mapper

入力された形状を円状に配置するノードです。
[Splatter Circular]ノードと違うのは[Radius]パラメータを小さくしていった時の挙動です。

[Splatter Circular]ノードでは普通に円状に配置されるだけなのに対して、[Shape Mapper]では画像の中心に近い方向のスケールが小さくなり、画像中心に吸い寄せられるような形になります。
実装を見てみたのですが読み解けていません。せめてプログラムコードなら読み解ける可能性もあるんですが…

使い道としてはやはりパターン形状の作成でしょう。特にレリーフ的なものの表現としては色々使い道があるのではないかと思います。

・作例 その1

[Cube 3D]と[Shape Mapper]を使って花のレリーフのようなものを作ってみました。

f:id:monsho:20171022150321p:plain

[Cube 3D]を左右対称にして形状を作成し、これを[Shape Mapper]で配置しています。
実際の花びらというよりは花びらを模したレリーフという感じになります。
実際の花びらっぽい形状も作れるとは思いますが、レリーフとかの堅い感じの方が向いてる印象があります。

f:id:monsho:20171022151317p:plain

・Swirl / Swirl Grayscale

[Transform 2D]ノードのようなUIを使って特定位置に渦巻きを作成できるノードです。

f:id:monsho:20171022152105p:plain

綺麗に渦巻きが作れますが、何に使うの?と言われるとなかなか困りますね。
ウルトラマンのタイトル演出とかですかね?

Vector Morph / Vector Morph Grayscale

[Warp]ノードに似ていますが、歪ませるためのノイズはノーマルマップを用います。
この仕組みはFlow Mapとも呼ばれていて、水の流れなどをノーマルの方向で指定するための技術です。
これまでのSDでも[Pixel Processor]を利用することで実現できましたが、より簡単になったと考えていいでしょう。

f:id:monsho:20171022153708p:plain

・作例 その2

ゲーム制作で使用されるFlow Mapは同じマップから生成される互い違いの歪んだテクスチャをブレンドして作成します。
SDには$timeという時間を指定するFloat値が存在しており、関数内で使用することが可能です。
ただし、Substance Playerでなければこの値を変化させることができないというイマイチな機能ですが、Playerを使うと連番のテクスチャも出力できます。
エフェクトでこのような流れを作った連番テクスチャを作成したい場合には$timeと[Vector Morph]を使って望みのテクスチャを作成できます。

f:id:monsho:20171022162926p:plain

関数は2つの[Vector Morph]の[amount]パラメータと、[Blend]ノードの[Opacity]ノードで実装しています。

[Vector Morph]上側

f:id:monsho:20171022163053p:plain

[Vector Morph]下側

f:id:monsho:20171022163132p:plain

[Blend]

f:id:monsho:20171022163155p:plain

Substance Playerで時間を変化させればうまくいく…はず(試してない)

・その他

[Histgram Select]ノードはある位置からある範囲までのヒストグラムを0~1の値に伸張し、それ以外を0にするノードです。
使い道としては高さブレンドのアルファ値として使用できます。
[Position]パラメータで指定したヒストグラムが1.0、[Range]パラメータで指定した範囲が[Position]の両端に展開される感じのようです。

[Arc Pavement]ノードはアーチ形状のタイルを作成するノードです。
使い方が限られてくる感はありますが、ヨーロッパの石畳とか作る上では便利かもしれません。

あと、[Splaetter Circular]ノードが刷新しています。
以前のものと比べるとかなり使いやすくなってる感じです。

 今回は以上です。