NVIDIA とGoogle Cloud は、世界中のスタートアップ企業による生成型 AI アプリケーションおよびサービスの開発の加速を支援するために協力しています。ラスベガスで開催されたGoogle Cloud Next '24 で発表されたこのコラボレーションは、NVIDIA Inception プログラムとGoogle for Startups クラウド プログラムを組み合わせ、スタートアップ企業にクラウド クレジット、マーケティング サポート、顧客価値の提供を迅速化するための技術的ノウハウへのアクセスを強化します。

世界中の 18,000 社を超えるスタートアップ企業をサポートする NVIDIA Inception に登録したスタートアップ企業は、 Google Cloud のインフラストラクチャに迅速にアクセスできるようになり、AI に重点を置いたプロジェクトで最大 35 万ドルのクラウド クレジットを受け取ることができます。さらに、 Google for Startups クラウド プログラムのメンバーは、NVIDIA Inception に参加することで、技術的な専門知識、NVIDIA Deep Learning Institute のコース クレジット、NVIDIA のハードウェアおよびソフトウェア製品へのアクセスなど、豊富なリソースにアクセスできるというメリットが得られます。

この提携により、NVIDIA Inception Capital Connect を通じてスタートアップ企業とベンチャー キャピタル企業とのつながりが促進され、 Google Cloud Marketplace への迅速なオンボーディングも提供されます。この取り組みは、スタートアップ企業が生成型 AI アプリケーションを作成する際に直面する財務的および技術的な課題を軽減し、あらゆる規模の企業がこれらのテクノロジを利用しやすくすることを目的とした、NVIDIA とGoogle Cloud による幅広い取り組みの一環です。

関連する開発として、 Google DeepMind は 2 月に高度なオープン モデル スイートである Gemma を発表しました。NVIDIA はそれ以来、 Googleと連携してこれらのモデルを AI プラットフォーム向けに最適化し、パフォーマンスの向上と運用コストの削減を実現しています。最適化には、NVIDIA GPU での大規模言語モデル推論を改善するように設計されたオープンソース ライブラリである NVIDIA TensorRT-LLM の使用が含まれます。さらに、NVIDIA NIM マイクロサービスとGoogle Kubernetes Engine は、AI を活用したアプリケーションと最適化された AI モデルを導入するための合理的なアプローチを提供します。Google Cloud は NVIDIA NeMo フレームワークの導入も簡素化し、開発者が生成 AI モデルのトレーニングと提供を自動化および拡張できるようにしました。NVIDIA H100 Tensor Core GPU を搭載したGoogle Cloud の A3 Mega インスタンスの近日中の一般提供開始により、ネットワーク帯域幅が 2 倍になり、機密コンピューティングがサポートされ、機密データと AI ワークロードが保護されます。

ソース:NVIDIA Newsroom