NVIDIAは企業がオンプレミスやクラウド環境においてAIのワークロードを処理するための基盤ソフトウェア群「NVIDIA AI Enterprise」の提供開始を発表しました。
NVIDIA AI EnterpriseはVMwareのvSphereで稼働するため、vSphereを使用しているオンプレミスやクラウド環境上でCUDAアプリケーション、AIフレームワーク、AIモデルなどNVIDIAのGPUを活用したソフトウェアをスケーラブルに実行可能になります。

強力なプロセッサパワーを要求するAIモデルのトレーニング処理などでは、複数のノードに備わっている複数のGPUに対して、仮想環境でもベアメタルとほぼ同様の性能で処理をスケールアウトさせることが可能。

一方で、推論処理のようにそれほど強力なGPU能力を必要としない場合には、マルチインスタンス GPU(MIG)機能によってNVIDIA A100 Tensor コア GPUを7つのインスタンスに分割し、別々のワークロードを割り当てることが可能です。
このようにNVIDIA AI Enterpriseを用いることで、これまで企業が慣れ親しんできた仮想環境と同じ手法でスケーラブルなGPUn能力を活用し、効率的なAIアプリケーションの開発や運用を実現できることになります。
NVIDIA AI EnterpriseはVMware vSphere 7 Update 2に対応。DellやHPE、Lenovoなどのシステムベンダにより提供される、NVIDIAに認証されたハードウェア上で稼働することになります。