Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
%20(1).webp)
Supermicro、AIとクラウド向けにNVIDIA HGX H200サポート開始
Generatived
23/11/14 10:22
Super Micro Computer(米カリフォルニア州サンノゼ)は、AI、クラウド、ストレージ、5G/Edge向けのトータルITソリューションを提供する企業として知られている。近く、H200 Tensor Core GPUを搭載した新しいNVIDIA HGX H200のサポートを開始し、AIの範囲を拡大する予定だ。SupermicroのAIプラットフォームには、8Uおよび4UユニバーサルGPUシステムが含まれ、これらはHGX H200 8 GPUおよび4 GPUにドロップイン対応可能である。また、NVIDIA H100 TensorコアGPUと比較してほぼ2倍の容量と1.4倍高い帯域幅のHBM3eメモリーを備えているという。
Supermicroはまた、最新の液冷ソリューションを利用した、液冷4UシステムにNVIDIA HGX H100 8 GPUシステムを搭載した業界最高密度のサーバーも導入している。この高性能GPUサーバーは業界で最もコンパクトなもので、データセンターオペレーターは設置面積とエネルギーコストを削減できると同時に、単一ラックで最高のパフォーマンスのAIトレーニング能力を提供できる。この最高密度のGPUシステムを使用すると、組織は最先端の液体冷却ソリューションを活用してTCOを削減できるとのこと。
Supermicroのチャールズ・リアンCEOは、「SupermicroはNVIDIAと提携して、AIトレーニングとHPCアプリケーション向けの最先端のシステムを設計している。ビルディングブロックアーキテクチャーによって、最新テクノロジーをいち早く市場に投入することができ、顧客はこれまでよりも迅速に生成AIを展開できるようになる。世界各地に展開する製造施設を利用して、これらの新しいシステムをより迅速に顧客に提供できる。900GB/秒のNVIDIA(R)NVLink(TM)およびNVSwitch(TM)高速GPU-GPUインターコネクトを備えたNVIDIA H200 GPUを使用するこの新しいシステムは、ノード当たり最大1.1TBの高帯域幅HBM3eメモリーを提供し、今日のLLMおよびジェネレーティブAIにとって最高のモデル並列性能を提供する。ラックスケールAIソリューションの密度を2倍にし、エネルギーコストを削減して、今日の高速化されたデータセンターのグリーンコンピューティングを実現する、世界で最もコンパクトなNVIDIA HGX 8-GPU液冷サーバーを提供できることをうれしく思う」と述べている。
Supermicroは、さまざまなフォームファクターを備えたAIサーバーの幅広いポートフォリオを設計および製造している。4ウェイおよび8ウェイNVIDIA HGX H100 GPUを搭載した人気の8Uおよび4UユニバーサルGPUシステムが、新しいH200 GPUにドロップインできるようになり、さらに大規模な言語モデルを短時間でトレーニングできるようになった。各NVIDIA H200 GPUには4.8TB/秒の帯域幅を持つ141GBのメモリーが搭載されていると述べた。
最新のニュース
OpenAI FedRAMP認証取得で政府AI拡大
26/4/30 0:00
OpenAI(米国サンフランシスコ)は、ChatGPT EnterpriseとAPI PlatformでFedRAMP 20x Moderate認証を取得したと明らかにした。
Copyright © 2024 Generatived - All right Reserved.
ニュース
Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。
最新のニュース
OpenAI FedRAMP認証取得で政府AI拡大
26/4/30 0:00
OpenAI(米国サンフランシスコ)は、ChatGPT EnterpriseとAPI PlatformでFedRAMP 20x Moderate認証を取得したと明らかにした。


%20(1).webp)



