NVIDIA は、世界中の開発者向けに生成 AI アプリケーションの作成を簡素化するために設計された推論マイクロサービス スイートである NVIDIA NIM を発表しました。NIM を使用すると、開発者はクラウド、データ センター、ワークステーションなどのさまざまなプラットフォーム上で AI モデルを最適化されたコンテナーとして展開できるようになります。このイノベーションにより、開発プロセスが合理化され、これまで必要とされていた時間のほんの一部で、副操縦士やチャットボットなどの高度な AI ツールを作成できるようになります。

同社の新しいサービスは、生成 AI をアプリケーションに統合するための標準化された方法を提供することで、生産性の向上を目指しています。NIM の効率性は、Meta Llama 3-8B などの特定のモデルを高速インフラストラクチャで実行する場合、従来の方法と比較して生成 AI トークンの出力を 3 倍にする機能によってさらに実証されています。この進歩により、企業は既存のインフラストラクチャを最大限に活用し、より高い効率を実現できます。

NVIDIA のテクノロジは、合計で約 200 社に及ぶ幅広い業界パートナーの間で支持を集めており、これらのパートナーは、NIM を自社のプラットフォームに組み込んで、特殊なアプリケーション向けの生成 AI の導入を促進しています。これらのアプリケーションは、AI 副操縦士やコード アシスタントからデジタル ヒューマン アバターまで多岐にわたります。さらに、 Hugging Face AI プラットフォームは、Meta Llama 3 モデルから NIM を統合し、開発者が簡単にアクセスできるようにしています。

NVIDIA の CEO であるジェンスン フアンは、社内の AI 専門知識に関係なく、すべての企業がジェネレーティブ AI を利用できるようにすることの重要性を強調しました。NVIDIA は、さまざまなプラットフォームに NIM を組み込み、広く利用できるようにすることで、組織がジェネレーティブ AI の可能性を活用できるようにすることを目指しています。NVIDIA AI Enterprise ソフトウェア プラットフォームは、NIM を使用した AI アプリケーションの運用展開をサポートし、来月から NVIDIA Developer Program メンバーは研究開発目的で NIM を無料で利用できるようになります。

ソース:NVIDIA Newsroom