HPE(本社:アメリカ)は、AIモデルの開発を合理化する「生成AIのためのスーパーコンピューティングソリューション」を発表した。このソリューションは、大規模言語モデル(LLM)や深層学習に基づく推奨モデル(DLRM)のための生成AIおよび深層学習プロジェクトを加速するAI/MLソフトウェアスタックで構成されている。HPEが提供するAIモデルをトレーニングするためのソリューションは、事前に構成および検証を実施した、業界をリードするスーパーコンピューティング、アクセラレーテッドコンピュート、ネットワーキング、ストレージ、およびサービスで構成されている。また、クワッドNVIDIA Grace Hopper™ GH200 Superchip構成を採用した初のシステムとなるという。

このターンキーソリューションには、インストールと設定サービスが含まれており、AI研究機関や大手企業向けに設計されている。成果を得るまでの時間およびAIモデルのトレーニングにかかる時間を2~3倍速めることが可能となる。HPEは、大手企業、研究機関、政府機関が公開不可のデータセットを使用したAIモデルのトレーニングおよびチューニングを加速するために設計されたこのソリューションを提供する。本ソリューションには、モデルのトレーニングやチューニング、AIアプリケーション開発のためのソフトウェアスイートが含まれ、液冷式スーパーコンピューター、アクセラレーテッドコンピュート、ネットワーキング、ストレージ、サービスで構成され、AIの価値をより迅速に解き放つことを支援するとのこと。

HPEのHPC、AI & Labs担当エグゼクティブバイスプレジデント兼ジェネラルマネージャーであるジャスティン・ホタード氏は、「世界をリードする企業や研究機関は、イノベーションを推進し、研究のブレークスルーに向けてAIモデルをトレーニングし、チューニングしている。生成AIを支えるに当たって必要とされるのは、AIモデルのトレーニングをサポートするスーパーコンピューターのパフォーマンスと拡張性に加え、サステナブルなソリューションを活用すること。NVIDIAとのコラボレーションにより、AIモデルのトレーニングとその成果を劇的に速める、ターンキーのAIネイティブソリューションを提供できることをうれしく思う」と述べている。

生成AIのためのスーパーコンピューティングソリューションは、AIネイティブな統合ソリューションで、AI/MLアクセラレーションソフトウェア、HPE Machine Learning Development Environment、NVIDIA AI Enterprise、HPE Cray Programming Environmentスイートなどのエンドツーエンドのテクノロジーとサービスを提供する。また、エクサスケールクラスのHPE Cray EX2500に業界をリードするNVIDIA GH200 Grace Hopper Superchipを搭載した本ソリューションは、数千のGPUを搭載でき、全ノードに単一のAIワークロードを占有させて、成果を加速できるとのことだ。

出典:プレスリリース