Cloudera(東京都中央区)は、NVIDIAの技術を活用し、AI/MLワークフロー向けサービス「Cloudera Machine Learning」に「NVIDIA AI Enterprise」のマイクロサービス「NVIDIA NIM」を統合したと発表。これにより、高速でセキュアな生成AIワークフローを提供する。

組織は、大規模言語モデル(LLM)を活用し、生成AIアプリケーションを開発する過程を加速。NVIDIA NIMとNeMo Retrieverマイクロサービスを用いて、ビジネスデータにリンクされたAIモデルから、文脈に即した高精度な応答を生成可能に。

Clouderaは、NVIDIAのマイクロサービスとの統合を進め、Cloudera Machine Learningを通じてモデルとアプリケーションの提供を強化。耐障害性や自動スケーリングなどの機能を備えたAIモデルサービングを実現し、企業データへのカスタムLLMの接続も容易に。

ClouderaとNVIDIAは、過去にも協力し、Cloudera Data PlatformにNVIDIA RAPIDS Acceleratorを統合。今回の発表により、GPU最適化データ処理をさらに推進。Clouderaは、生成AIを支えるLLMの構築、カスタマイズ、導入を容易にし、ビジネス変革を促進するとしている。

出典:プレスリリース