NVIDIAは、企業開発者向けのAIおよびMLプロジェクト開発の効率を高めるために設計されたツールであるAIワークベンチのベータ版を発表した。SIGGRAPH 2023で公開されたこのプラットフォームは、さまざまなGPU対応環境間でAIワークロードの作成、コラボレーション、移行を容易にする。AIワークベンチは、AIワークフローを簡素化し、開発者のニーズに応えるさまざまな新機能を提供することを目的としている。

AIワークベンチは、ローカルPCまたはワークステーションでAIまたはMLプロジェクトを開始し、データセンター、パブリック クラウド、NVIDIA独自のDGXクラウドなどの異なる環境にシームレスに移行する柔軟性を開発者に提供する。この多用途性により、特定の要件に応じてプロジェクトを適応および拡張できる。このツールは、多様なコンピューティングリソースでの作業を可能にすることで、AIワークフローのセットアップ、開発、移行の複雑さを軽減するように設計されている。

AI Workbenchのベータリリースでは、Windows 11、Ubuntu 22.04、macOS 11以降と互換性のある簡略化されたセットアッププロセスなど、いくつかの機能強化が導入されている。コンテナ化された環境とGitに準拠したバージョン管理による合理化された開発エクスペリエンスを提供する。開発者はコンテナランタイムとしてDockerとPodmanのどちらかを選択できるようになり、ユーザーインターフェイスが更新されてコマンドライン インターフェイスと同等の機能が提供された。

NVIDIAはまた、コーディングコパイロットのリファレンス例を提示し、AI Workbenchを利用して、優先GPUシステム上で事前トレーニングされた生成AIモデルを微調整する方法を示している。この例では、パラメーター効率の高い微調整のための量子化低ランク適応(QLoRA)の使用を強調している。これにより、メモリー使用量が最適化され、大規模なGPUの必要性が軽減される。このアプローチにより、開発者はより効率的に、より少ないリソースオーバーヘッドでAIモデルをカスタマイズできる。

ソース:NVIDIA Developer Blog