ChatGPTの広範な導入を受けて、世界中の企業が競争力を維持するためにAIをビジネスプロセスに迅速に統合している。エンタープライズAI開発の過程は通常、データの準備から始まり、モデルのトレーニングを経て、展開と推論で最高潮に達します。このプロセスを促進するために、NVIDIAのNGCカタログは、AI開発を合理化するために、コンテナに格納されたGPUに最適化されたソフトウェアとSDKの包括的なスイートを提供する。

NGCカタログには、自然言語処理、オブジェクト検出、推奨システムなど、さまざまなAIユースケースに合わせて調整されたさまざまなコンテナが含まれている。これらのコンテナには、データETL用のRAPIDS、モデル開発用のTensorFlowとPyTorch、展開用のNVIDIA TensorRTとNVIDIA Triton Inference Serverが含まれており、最新のNVIDIAアクセラレーションコンピューティング スタックを活用するように設計されている。定期的なアップデートにより、既存のハードウェアのパフォーマンスが向上すると同時に、さまざまなNVIDIA GPU間の互換性とパフォーマンスが厳密にテストされる。

AIアプリケーションの展開においてセキュリティーは最も重要な懸念事項だ。NGCカタログは、コンテナの脆弱性をスキャンし、セキュリティー評価を割り当てることでこの問題に対処し、企業が自信を持ってソフトウェアを使用できるようにする。コンテナには、依存関係のカプセル化、再現性、リソースの節約などの追加の利点がある。企業が概念実証から本番環境に移行する際には、セキュリティー、安定性、管理性に関する厳しい要件を満たす必要がある。

この移行をサポートするために、NVIDIAはNGCカタログで2つのアプローチを提供し、開発用にはコミュニティーベースのソフトウェアを、本番用にはエンタープライズ グレードのソフトウェアを提供する。例えば、NVIDIA Triton Inference Serverは、開発ニーズと実稼働需要の両方に応えるために、さまざまなバージョンで利用できる。NVIDIA AI Enterpriseは、AI開発ライフサイクル全体をサポートするエンタープライズグレードのソフトウェア プラットフォームを提供することで、このエコシステムをさらに強化し、ミッションクリティカルなAIアプリケーションのセキュリティー、信頼性、管理性を確保する。

ソース:NVIDIA Developer Blog