Amazonウェブサービス(AWS)とNVIDIAは、NVIDIAの最新のBlackwell GPUプラットフォームをAWSの製品に統合するための提携を発表した。このパートナーシップは、特に生成型人工知能(AI)の分野で、顧客が利用できるインフラストラクチャーとソフトウェアを強化することを目的としている。新しいNVIDIA GB200 Grace BlackwellスーパーチップとB100 TensorコアGPUは、10年以上にわたる戦略的関係に基づいてAWSで利用できるようになる。

NVIDIAのBlackwellプラットフォームとAWSの高度なセキュリティーおよびネットワーキング機能の統合により、大規模言語モデル(LLM)のパフォーマンスが最適化される。お客様は、数兆個のパラメータを使用してLLM上でリアルタイム推論を以前よりも効率的かつコスト効率よく実行できるというメリットを享受できる。AWSのCEOであるアダム・セリプスキー氏は、生成AIとGPUコンピューティングの進歩におけるGrace Blackwellプロセッサーの重要性を強調し、NVIDIAのCEOであるジェンセン・ファン氏は、このコラボレーションによる新しいAI機能の加速を強調した。

AWSは、B100 GPUとGB200スーパーチップを搭載したインスタンスを提供する予定であり、これらはAWSで共同設計されたNVIDIA DGX™ クラウドで利用可能になる。この動きにより、高度な生成AIモデルとLLMの開発が促進されることが期待される。物理暗号化やAWSのNitro SystemなどのBlackwellプラットフォームのセキュリティー機能は、顧客にAIイニシアチブのための安全な環境を提供することを目的としている。

NVIDIAとAWSの合弁事業であるProject Ceibaは、AWS上で独占的にホストされる世界最速のAIスーパーコンピューターの1つを作成するために発表された。このプロジェクトは、NVIDIA GB200 NVL72システムを活用し、さまざまなAIアプリケーションにおけるNVIDIAの研究開発を大幅に強化するように設計されている。さらに、AWSとNVIDIAは、ヘルスケアとライフサイエンスにおける生成AIアプリケーションの推進に協力しており、新しいモデルとマイクロサービスがAWS HealthOmicsで利用可能になる予定だ。

出典:プレスリリース