Supermicro(カリフォルニア州サンノゼ)は、AI、クラウド、HPCなどの分野でトータルITソリューションを提供する企業。同社は、AIおよび機械学習のデータパイプライン向けに多層ストレージソリューションを最適化する新製品を発表した。このソリューションは、GPUへのデータフィードを最大化し、AI価値のより迅速な実現を可能にする。

Supermicro CEOのCharles Liang氏は、「ラック当たり20PBの高性能フラッシュストレージがNVIDIA HGX H100 8-GPUサーバーに電力を供給し、AIアプリケーションを高速化する」と述べている。このシステムは、ストレージクラスター当たり270 GB/秒の読み取りスループットと390万IOPSを実現し、数百ペタバイトまで拡張できる。SupermicroシステムとWEKAデータプラットフォーム ソフトウェアは、AIアプリケーションのパフォーマンスを向上させる。

AIトレーニングには、低レーテンシーと高帯域幅でペタバイト規模のデータを処理する能力が必要だ。Supermicroのストレージサーバーは、サーバー当たり983.04*TBのNVMe Gen 5フラッシュ容量を提供し、最大230 GB/秒の読み取り帯域幅と3,000万IOPSを実現する。大容量データの保存に適した90ドライブベイのストレージサーバーもラインアップ。

「SupermicroのストレージサーバーとWEKAのソフトウェアを組み合わせることで、エンタープライズAIに必要な速度と規模が実現する」とWEKA社長の Jonathan Martin 氏は述べている。Supermicroのソリューションは、機械学習や生成AIなどの複雑な計算ワークロードに対処しており、世界中の顧客が利用できる。

出典:プレスリリース