NVIDIA と Microsoft は、開発者向けの AI テクノロジを最適化するために連携を強化しています。Phi-3 ファミリを含む Microsoft の最新の AI モデルは、NVIDIA GPU 向けにカスタマイズされています。これらのモデルは、さまざまなプラットフォームにシームレスに展開できるように設計された NVIDIA NIM 推論マイクロサービスとして利用できます。さらに、NVIDIA の cuOpt ルート最適化 AI やその他のマイクロサービスは、NVIDIA AI Enterprise ソフトウェア スイートの一部として、Microsoft Azure Marketplace で利用できるようになりました。

このパートナーシップは、NVIDIA GeForce RTX および NVIDIA RTX GPU を搭載した PC 向けの高性能 AI アプリケーションを作成するためのツールを開発者に提供することにも重点を置いています。この取り組みは、開発者コミュニティをサポートするための継続的な取り組みの一環であり、シアトルで開催される Microsoft Build 開発者イベントでさらに詳しく説明される予定です。

Microsoft は、Phi-3 オープン小規模言語モデルを拡張し、画像とテキストの両方を処理するマルチモーダル モデルなど、さまざまなパラメーターを備えた新しいモデルを導入しています。これらのモデルは、NVIDIA TensorRT-LLM を使用して NVIDIA GPU 向けに最適化されており、NIM として利用可能で、標準APIによる高速推論マイクロサービスを提供します。開発者は、NVIDIA の Web サイトとAzure Marketplace を通じてこれらの API にアクセスできます。

NVIDIA のルート最適化 AI マイクロサービスである cuOpt が、 Azure Marketplace に導入されました。このサービスは、並列アルゴリズムを利用して、さまざまな業界の物流管理を強化します。cuOpt は、ルーティング ベンチマークで多数の記録を達成しており、物流とサプライ チェーンのコストを大幅に削減する可能性を示しています。開発者は、cuOpt をAzure Maps と統合してリアルタイムの物流管理を実現し、マーケットプレイスの管理ツールとセキュリティ機能のメリットを享受できます。

最後に、NVIDIA と Microsoft は、NVIDIA RTX GPU を搭載した PC での AI パフォーマンスの向上に取り組んでいます。両社は、Windows 開発者に AI アプリケーションを高速化するための新しい最適化と統合を提供しています。これらの機能強化には、大規模な言語モデルの推論の高速化や、Stable Diffusion や Whisper などの AI モデルのパフォーマンスの最適化が含まれます。Windows が DirectML を通じて PyTorch をサポートすることで、1 億を超える RTX GPU の機能を活用し、さまざまなHugging Faceモデルがネイティブに互換性を持つようになります。

ソース:NVIDIA Newsroom