NVIDIAは、Kubernetesベースのワークロード管理およびオーケストレーションソフトウェアを専門とする企業であるRun:aiを買収し、顧客のAIコンピューティングリソースの効率を高める計画を​​発表した。この動きは、現在クラウド、エッジ、オンプレミスデータ センターなど、さまざまなインフラストラクチャーにまたがるAI展開の複雑さの増大に対処することを目的としている。Run:aiのプラットフォームは、さまざまな環境でコンピューティングインフラストラクチャーを管理および最適化するように設計されており、Kubernetes上に構築されたオープンプラットフォームを提供する。このプラットフォームは、全ての一般的なKubernetesバリアントをサポートし、サードパーティーのAIツールやフレームワークと統合される。

この買収により、大規模なGPUクラスターを管理するための高度なツールをエンタープライズ顧客に提供することで、NVIDIAの提供が強化される。2020年からNVIDIAと連携しているRun:aiのプラットフォームは、共有コンピューティングインフラストラクチャーを管理するための集中型インターフェイスを提供し、複雑なAIワークロードへのアクセスを簡素化する。また、GPUクラスターリソースの効率的な利用が可能になり、顧客はコンピューティング投資を最大限に活用できる。NVIDIAは、当面の間、Run:aiの製品を同じビジネスモデルで維持し、NVIDIA DGX Cloudの一部として製品ロードマップに投資を続ける予定だ。

NVIDIAの顧客、特に大規模な言語モデルの展開にNVIDIA DGXとDGX Cloudを使用している顧客は、Run:aiの機能をAIワークロードに統合することでメリットを得られる。Run:aiのソリューションは、NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA AI Enterpriseソフトウェアなど、さまざまなNVIDIA製品と既に互換性がある。NVIDIAとRun:aiのコラボレーションにより、プラットフォームのオープンアーキテクチャーにより、GPUの利用率が向上し、GPUインフラストラクチャーの管理が強化され、柔軟性が向上することが期待される。このパートナーシップは、さまざまな場所にあるGPUリソースにアクセスするための統合ソリューションを作成することを目指している。

ソース:NVIDIA Newsroom