ONNX (Open Neural Network Exchange)

機械学習の相互運用性のためのオープンスタンダード

Over View

Inferenceノードからサードパーティの機械学習トレーニング済みモデルをインポートしします。

ロードできるファイルは、.onfファイルと.onnxファイルの2種類です。

.onnxファイルを選択すると、ソフトウェアはディレクトリ内で同じ名前の .jsonファイルを検索します。その.jsonファイルは、モデルの入力、出力、および属性を定義します。これは、Matchboxシェーダーの.xmlファイルに相当します。関連する.jsonサイドカーファイルが同じディレクトリに存在しない場合、アプリケーションはデフォルトの入力、出力、および属性をノードに適用します。

.onnxモデルをそのままInferenceノードにインポートすることもできますが、一部のモデルでは正しく動作させる前に特定の設定を調整する必要があります。

Inference Builder

このモデルは0 – 1ではなく0 – 255範囲の符号なし整数でトレーニングされているので、Flameは入力に255のGainを適用し、出力に255の逆ゲインに変更する必要があります。

-j オプションから.jsonサイドカーファイルを作成

.jsonのGainを修正

-p オプションからパッケージ化 (サムネールの.pngファイルは別途作成)

Change Modelからロードモデルファイルブラウザーを表示

パッケージした.infファイルをロード

Rendering Platform Option

Rocky LinuxではGPUまたはCPUを選択することができますが、macOSではGPUを選択することができません。

Rocky Linuxの場合、GPUとCPUを切り替えが可能です。

ML Engine Cache

TensorRT

NVIDIAが提供するディープラーニング推論を最適化するツールです。学習済みのAIモデルをNVIDIA GPU上で高速かつ効率的に実行します。

キャッシュには、Machine Learning inferenceモデル(ML推論モデル)、GPU、および画像サイズの組み合わせごとに新しいTensorRTエンジンが必要になります。新しいモデルが新しい組み合わせに適用されるたびに新しいエンジンが生成されます。

保存されたエンジンキャッシュは、同じML推論モデル、GPU、および画像サイズの組み合わせが必要になったときに使用されるため、大幅に高速化されます。