NVIDIA は、エンタープライズ開発者向けの AI モデルの導入を簡素化することを目的とした、推論マイクロサービスの新しいスイートである NVIDIA NIM を発表しました。これらのマイクロサービスは、オンプレミスとクラウド環境の両方でシームレスに動作するように設計されており、AI 機能を安全かつ効率的に活用できます。NVIDIA NIM は、迅速な反復と高度な生成 AI ソリューションの開発を促進する NVIDIA AI Enterprise エコシステムの一部です。

NIM の導入プロセスはユーザーフレンドリーで、開発者は単一のコンテナを使用して 5 分以内に最適化された AI モデルを起動できます。これは、クラウド インフラストラクチャ、データ センター、ワークステーション、PC など、さまざまな NVIDIA GPU アクセラレーション システムで実行できます。コンテナを導入したくない人のために、NVIDIA はAPIカタログで利用可能な NIM API を使用してアプリケーションのプロトタイプを作成するオプションも提供しています。

NVIDIA は、データ セキュリティと制御の重要性を強調し、サービスを利用しながら企業リソースが保護されるようにしています。同社は、LoRA などの技術で強化されたものを含む、微調整されたさまざまなモデルをサポートし、最高の精度を確保しています。さらに、NVIDIA は AI 推論エンドポイントを標準化し、LangChain、LlamaIndex、Haystack などの一般的な生成 AI アプリケーション フレームワークとスムーズに統合できるようにしています。

NVIDIA NIM の利用に関心のある開発者は、NVIDIA が提供する包括的なガイドとドキュメントを見つけることができます。同社はまた、アプリケーションに NIM を組み込むことを検討している開発者向けに、サンプルの展開と統合サポートも提供しています。NIM を統合することで、開発者は、すでに確立されているさまざまな生成 AI ツールと互換性のある、高速で信頼性の高いモデル推論のメリットを享受できます。

ソース:NVIDIA Developer Blog