ハイブリッド マルチクラウド コンピューティングの有力企業であるNutanix は、最近、 Nutanix GPT-in-a-Box 製品の機能強化を発表しました。このアップデートには、NVIDIA の推論マイクロサービスおよびHugging Face Large Language Models ライブラリとの統合が含まれています。同社はまた、Nutanixクラスの AI ソリューションとサービス パートナーを統合し、顧客がNutanix Cloud Platform 上で生成 AI アプリケーションを展開および管理できるよう支援することを目的とした Nutanix AI パートナー プログラムも発表しました。

Nutanixの製品管理担当 SVP である Thomas Cornely 氏は、GPT-in-a-Box が好評を博していること、そして企業がオンプレミス AI ソリューションを導入することに熱心であることに興奮を表明しました。同社は、プライバシーとコスト管理を確保しながら、生成 AI アプリケーションの実行を簡素化することに重点を置いています。アップグレードされた GPT-in-a-Box 2.0 は、モデル管理とAPIエンドポイント作成のための統合インターフェイス、および NVIDIA Tensor Core GPU との統合により、よりユーザーフレンドリーなエクスペリエンスを提供することを約束します。

Nutanix は戦略的な動きとして、 Hugging Faceと提携し、顧客に LLM の膨大なライブラリへの統合アクセスを提供しています。このコラボレーションは、AI モデルの導入を合理化し、 Nutanixユーザーの実行効率を高めることを目的としています。また、このパートナーシップにより、GPT-in-a-Box 2.0 環境内で Hugging Face のテキスト生成モデルを利用するための一貫したサポートされたワークフローが確保されます。

Nutanix は非構造化データ プラットフォームも改善し、パフォーマンスとコスト効率を高めて AI/ML アプリケーション向けに最適化しました。このプラットフォームは、新しい大容量のオール NVMe ストレージ オプションをサポートし、読み取りスループットが向上しています。AI/ML ワークロードをさらに高速化するために、 Nutanix はNVIDIA GPUDirect ストレージをNutanixする予定で、サーバー OEM パートナーシップを拡大して AI に最適化されたさまざまな GPU を含めています。Nutanix AI パートナー プログラムは、複数の業界のさまざまなユース ケースに対応する、多様な AI パートナー エコシステムへのアクセスを顧客に提供します。

出典:プレスリリース