NVIDIAとAWSは、2023年7月26日に最先端のAIパフォーマンスをクラウドにもたらす提携を発表した。AWSーザーは、NVIDIA H100 TensorコアGPUを搭載した新しいAmazon EC2 P5インスタンスを通じて、業界をリードするAIトレーニングと推論のパフォーマンスにアクセスできるようになった。

AIが急速に進歩し続ける中、開発者や研究者はほぼ毎日新しいAIアプリケーションを模索している。NVIDIAのH100 GPUはこの需要に応え、第4世代Tensorコア、新しいトランスフォーマーエンジン、NVLinkテクノロジーによりスーパーコンピューティングクラスのパフォーマンスを提供する。

P5インスタンスは、質問応答、コード生成、音声認識など、最も計算量の多い生成AIアプリケーション向けに設計されている。これらのインスタンスはEC2 UltraClusterにデプロイでき、AWS EFAによって実現されるペタビット規模のノンブロッキングネットワークにより、複数のシステムにわたるハイパフォーマンス コンピューティングが可能になる。

P5インスタンスは、NVIDIA Collective Communications Libraryもサポートしているため、機械学習アプリケーションで最大20,000個のH100 GPUを使用できる。NVIDIA AI Enterpriseは、フレームワーク、事前トレーニングされたモデル、AIワークフロー、AIインフラストラクチャー最適化するツールを備えたソフトウェアスイートをユーザーに提供する。

NVIDIAによれば、Anthropic、Cohere、Hugging Face、Pinterestなどの企業は、既にH100を利用したAmazon EC2 P5インスタンスをAIプロジェクトに活用しているという。