スーパーマイクロ(カリフォルニア州サンノゼ)は、AIやクラウド向けの新しいAIシステムを発表。NVIDIAの最新データセンター製品を搭載し、生成AIに特化したソリューションを提供。NVIDIA HGX™ H100/H200 8-GPUシステムを強化し、B100 8-GPUにドロップイン対応、B200をサポートすることで納品時間を短縮。

同社は、NVIDIA Blackwellアーキテクチャーを基盤としたGPUの高度な要件に対応した次世代システムを設計。4U液冷式NVIDIA HGX B200 8-GPUベースシステムや、NVIDIA GB200 NVL72を搭載した完全統合型のチップ直結液冷ラックなどが例として挙げられる。スーパーマイクロは、1kWのGPUを空冷式および液冷式システムに組み込む専門知識を有し、NVIDIA Blackwell GPUを搭載したフルラッククラスターの市場投入で先駆けとなる見込み。

チップ直結液冷技術により、NVIDIA Blackwell GPUの全潜在能力を引き出すことが可能に。AIインフラの未来の基盤となる構成要素であり、数兆パラメータのAIトレーニングとリアルタイムAI推論において、高い性能を提供。NVIDIA Blackwell B200およびB100 Tensor Core GPU向けに最適化されたシステムが準備され、NVIDIA AI Enterpriseソフトウェアで検証される。

NVIDIAのGPUプロダクトマネージメント副社長であるKaustubh Sanghani氏は、スーパーマイクロと協力し、最適化されたソリューションを提供していると述べた。スーパーマイクロは、NVIDIA GB200 Grace Blackwell Superchipを搭載した新しいMGXシステムをリリースし、AI推論のパフォーマンスを向上。詳細は、https://www.supermicro.com/en/accelerators/nvidiaで確認可能。

出典:プレスリリース