NVIDIA は、TensorRT-LLM を使用して 2 つの新しい AI モデル、Gemma 2 と PaliGemma を最適化するためにGoogleと提携することを発表しました。Gemma 2 は、パフォーマンスと効率性の向上を目的とした新しいアーキテクチャにより、幅広いユース ケース向けに設計されています。PaliGemma は PaLI-3 にヒントを得たオープン ビジョン言語モデルで、画像キャプションの作成やオブジェクト検出などのタスクを対象としています。どちらのモデルも NVIDIA NIM 推論マイクロサービスを通じてアクセス可能で、大規模な AI 展開を簡素化します。PaliGemma はすでにAPIカタログで利用可能です。

Google Colab のユーザーは現在月間 1,000 万人に達していますが、オープンソースの GPU データフレーム ライブラリである RAPIDS cuDF の統合により、データ処理速度が大幅に向上します。このツールは、コードを変更することなく、NVIDIA L4 Tensor Core GPU でPython pandas ワークフローを最大 50 倍高速化します。RAPIDS cuDF は、特に CPU ベースのシステムでは速度が低下する可能性のある大規模なデータセットを処理する場合に、データ分析と生成パイプラインを強化することを目的としています。

AI を Web およびモバイル アプリケーションにさらにシームレスに統合する取り組みの一環として、 Googleと NVIDIA はFirebase Genkit のコラボレーションも導入しました。この取り組みにより、アプリ開発者は新しい Gemma モデルなどの生成 AI モデルをプロジェクトに組み込むことができます。ローカル RTX GPU で開始してGoogle Cloud に移行できるため、開発者はJavaScript を使用してアプリ開発を行い、プロセスを合理化できます。

NVIDIA とGoogle Cloud のパートナーシップは拡大を続けており、さまざまなプラットフォームで AI テクノロジーを進化させる取り組みが進められています。今後のプロジェクトには、Grace Blackwell を搭載した DGX Cloud プラットフォームと JAX フレームワークのサポート、および NVIDIA の NeMo フレームワークをGoogle Kubernetes Engine に導入することが含まれます。これらのコラボレーションは、 Google Cloud で NVIDIA テクノロジーを使用するお客様が利用できる機能を強化することを目的としています。

ソース:NVIDIA Newsroom