NVIDIA は、AI インフラストラクチャと運用を管理するための知識を企業プロフェッショナルに提供することを目的とした、新しい自習型コースを開始しました。AI インフラストラクチャと運用の基礎というタイトルのこのコースは、さまざまな業界でますます不可欠なものとなっている AI アプリケーションに必要なインフラストラクチャを展開および維持する方法を IT プロフェッショナルが理解できるように設計されています。

包括的なトレーニング プログラムは 3 つのモジュールで構成されており、最初は AI の紹介で、さまざまなセクターでの AI の進化とアプリケーションの概要を説明します。参加者は、AI 機能の強化における GPU の役割と、堅牢なソフトウェア スタックの重要性について学びます。このコースでは、クラウドベースおよびオンプレミス ソリューションを含む AI ワークロードの運用環境についても取り上げます。

2 番目のモジュールでは、AI 運用に不可欠なハードウェア コンポーネントを詳しく調べ、コンピューティング プラットフォーム、ネットワーク、およびストレージの進歩について説明します。また、データ センターの持続可能なプラクティスと、効率的な AI システムの開発におけるリファレンス アーキテクチャの使用についても重点的に説明します。最後のモジュールでは、AI インフラストラクチャの実用的な管理に焦点を当て、インフラストラクチャの監視ツールと AI クラスターのオーケストレーション手法について指導します。

このコースと併せて、NVIDIA は AI インフラストラクチャと運用のアソシエイト認定を提供しています。この資格は、基礎的な AI 概念と、アクセラレーテッド コンピューティングのための NVIDIA ソリューションの使用に関する個人の理解を検証することを目的としています。この認定では、GPU アーキテクチャから NVIDIA の AI ソリューションを実装するための具体的な考慮事項まで、さまざまなトピックをカバーしています。

このコースと認定は、スキルの向上、AI プロジェクトのサポート、または AI 分野での新しいキャリア チャンスの追求を目指す人向けにカスタマイズされています。関心のある方は、NVIDIA が提供するトレーニングと認定の機会について詳しく知ることができます。

ソース:NVIDIA Newsroom