Amazonウェブサービス(AWS)とNVIDIAは、顧客の生成型人工知能(AI)イノベーションのための高度なインフラストラクチャー、ソフトウェア、およびサービスを提供するための戦略的提携の拡大を発表した。このパートナーシップでは、次世代のGPU、CPU、AIソフトウェアを備えたNVIDIAの最新のマルチノードシステムと、AWSの高度な仮想化とセキュリティー、相互接続、およびスケーラビリティーを組み合わせる。このコラボレーションは、基礎モデルのトレーニングと生成AIアプリケーションの構築に有益であることが期待されるという。

コラボレーションの拡大の一環として、AWSは、新しいマルチノードNVLinkテクノロジーを備えたNVIDIA GH200 Grace Hopperスーパーチップをクラウドに導入する最初のクラウドプロバイダーとなる。このプラットフォームはAmazon Elastic Compute Cloud (Amazon EC2)インスタンスで利用できるようになり、顧客は数千のGH200スーパーチップまで拡張できる。さらに、NVIDIAとAWSは協力して、NVIDIAのサービスとしてのAIトレーニングであるNVIDIA DGXクラウドをAWS上でホストし、最先端の生成AIと大規模言語モデルのトレーニングを加速するという。

両社は、NVIDIAの研究開発チームのためにAWSがホストするGPU搭載のAIスーパーコンピューターを設計するProject Ceibaでも協力している。このスーパーコンピューターは、16,384個のNVIDIA GH200スーパーチップを搭載し、65エクサフロップスのAIを処理できるもので、NVIDIAが生成AIイノベーションの次の波を推進するために使用される。AWSはまた、AI微調整、推論、グラフィックス、ビデオワークロードなどの幅広いアプリケーション向けに、NVIDIA GPUを搭載した3つの追加のAmazon EC2インスタンスを導入するという。

新しいAmazon EC2インスタンスは、NVIDIAとAWSのテクノロジーの最高の部分を組み合わせたものになる。AWSは、マルチノードNVLinkテクノロジーを備えたNVIDIA GH200 Grace Hopperスーパーチップを提供する最初のクラウドプロバイダーとなり、顧客にスーパーコンピュータークラスのパフォーマンスへのオンデマンドアクセスを提供する。これらのインスタンスには液体冷却も搭載されており、最大のパフォーマンスでの効率的な動作が保証される。さらに、AWSはNVIDIAと提携して、企業が複雑なAIモデルをトレーニングするためのマルチノードスーパーコンピューティングへの高速アクセスを可能にするAIスーパーコンピューティングサービスであるNVIDIA DGX Cloudをホストするとのことだ。

出典:プレスリリース