NVIDIAは、AIを活用したエンタープライズアプリケーションの開発と展開を容易にするために、NVIDIA AI EnterpriseのコンポーネントであるNVIDIA NIMを導入した。このテクノロジーは、生成AIモデルの市場投入までの時間を短縮し、クラウド、データセンター、GPUアクセラレーションワークステーションなどのさまざまなプラットフォームにわたる展開を簡素化することを目的とした、一連のクラウド ネイティブマイクロサービスを提供する。NIMは業界標準のAPIを提供することで、開発者がAIモデル開発の複雑さを操作することなく、AI機能をアプリケーションに簡単に統合できるようにする。

生成AIの導入は大幅に増加しており、OpenAIのChatGPTがその先頭に立ち、リリース直後に1億人を超えるユーザーに到達した。組織が本格的な運用導入に向けて移行するにつれて、AIモデルを既存のインフラストラクチャーと統合し、システムを確実に最適化するという課題に直面している。NVIDIA NIMは、AIモデル展開の合理化されたパスを提供することでこれらの課題に対処し、開発者が専門的なスキルを必要とせずに自社のAI変革の作成に集中できるようにしようとしている。

NVIDIA NIMの設計は、エンタープライズ環境におけるAI開発と運用ニーズの間のギャップを埋めることに重点を置いている。さまざまなインフラストラクチャーにわたるデプロイをサポートし、最適化されたモデル用の事前構築済みコンテナとHelmチャートが付属している。マイクロサービスはNVIDIAハードウェアプラットフォームとクラウド サービスプロバイダー全体で検証され、互換性と制御が保証される。さらに、NIMは、エンタープライズアプリケーションのパフォーマンスと精度を向上させるために、ドメイン固有のモデルと最適化された推論エンジンを提供する。

AIモデルのカスタマイズを目指す企業向けに、NVIDIAはさまざまなドメインにわたってモデルを微調整するための追加のマイクロサービスを提供する。NVIDIA NeMo、BioNeMo、Picassoは、それぞれ音声AI、創薬、クリエーティブワークフローの機能を提供する。開発者は、NVIDIA APIカタログを通じてさまざまなAIモデルにアクセスし、Kubernetesを使用してクラウドプロバイダーまたはオンプレミスに展開できる。NVIDIA NIMは、幅広いAIユースケースをサポートしながら、AI導入プロセスを簡素化し、インフラストラクチャーの効率を最適化し、コストを削減する。

ソース:NVIDIA Developer Blog