Supermicroは、NVIDIAのAI Enterpriseソフトウェアプラットフォーム向けに最適化されたSuperClustersを活用して、企業における生成型AIの導入を強化するために設計された、新しい液冷式AIデータセンターの立ち上げを発表した。同社の4U液冷システムには、NVIDIAの最新のBlackwell GPUが搭載されており、GPU当たり20 PetaFLOPSのAIパフォーマンスを実現できる。これらの進歩により、前世代と比較してAIトレーニングが4倍、推論パフォーマンスが30倍向上し、コストも削減できるといわれている。

SupermicroのCEOであるCharles Liang氏は、ラックスケールの液冷技術によるAIソリューションにおける同社のリーダーシップを強調した。同氏は、液冷式データセンターは電力使用量を大幅に削減できるため、顧客に継続的なコスト メリットを提供できると強調した。NVIDIA AI Enterpriseソフトウェア向けに最適化されたSupermicroのソリューションは、NVIDIA HGX H100およびH200や、今後登場するB100、B200、GB200ソリューションなどのターンキークラスターの納期を短縮することを目指している。同社のトータル液体冷却ソリューションは、データセンターの電力使用量を最大40%削減する可能性がある。

COMPUTEX 2024で、SupermicroはNVIDIAのBlackwell GPU向けに最適化された今後のシステムを発表した。これには、10U空冷式および4U液体冷却式のNVIDIA HGX B200ベースのシステム、8U空冷式のNVIDIA HGX B100システム、NVIDIA NVLinkスイッチを備えた72個の相互接続されたGPUを含むラックが含まれる。NVIDIAのCEOであるJensen Huang氏は、AI時代に合わせてデータセンターを最適化するNVIDIAの高速コンピューティングおよびネットワーキングソリューションを設計したSupermicroを称賛した。

SupermicroのクラウドネイティブAI SuperClusterは、クラウドアクセスの利便性と、安全で管理されたデータの必要性との間のギャップを埋めるように設計されている。これにより、企業はAIプロジェクトをパイロットからあらゆる規模で実稼働に移行できる。AI Enterpriseスイートの一部であるNVIDIAのNIMマイクロサービスは、さまざまなモデルにわたる生成AIの展開を容易にする。さらに、NVIDIAのNeMoプラットフォームは、カスタムモデルの開発をサポートする。NVIDIA AI Enterpriseに対応したSupermicroのSuperClustersは、液冷と空冷の両方の構成でスケーラブルなコンピューティングユニットを提供し、大規模な言語モデルのトレーニング、ディープラーニング、および大量の推論に最適化されている。

出典:プレスリリース