生成AIモデルは、コーディング支援からビデオ制作まで、さまざまな用途を提供し、テクノロジー業界でますます定番になりつつある。これらのモデルが進化するにつれて、大量の計算リソースが必要となり、効率的なオーケストレーションには高性能プロセッサーと高度なソフトウェアの使用が必要になる。最近、著名なテクノロジー企業が、その高度な言語モデルが24,576個のハイエンドGPUのクラスターでトレーニングされたことを明らかにし、このようなタスクに必要な膨大な計算能力を示しました。

大規模言語モデル(LLM)の事前トレーニングは、ほんの始まりにすぎない。事前トレーニングが済んだら、さまざまな手法を使用してこれらのモデルを微調整し、特定のアプリケーションに対する精度を高めることができる。企業がさまざまなアプリケーションにLLMを統合するにつれて、この微調整プロセスは急速に不可欠になってきている。テクノロジー業界では、これらのモデルの採用が急増しており、微調整が重要な作業負荷として浮上している。

AIトレーニングパフォーマンスのベンチマークは極めて重要であり、MLPerfトレーニングは業界標準としての地位を確立している。コンソーシアムによって開発されたMLPerfトレーニングベンチマークは、最新のAIユースケースを反映するために定期的に更新され、結果の妥当性を保証するために厳格なピア レビュープロセスを経ている。最新のMLPerfトレーニングv4.0では、テクノロジー大手が、最新のGPU、相互接続、ネットワーク、最適化された一連のライブラリーとフレームワークを含む独自のソフトウェアとハ​​ードウェアのフルスタックを活用して、全てのワークロードで生成AIトレーニングパフォーマンスの新記録を樹立した。

MLPerfトレーニングv4.0スイートは、低ランク適応によるLLMの微調整や、創薬や不正検出などのアプリケーション向けのグラフニューラル ネットワークのトレーニングなど、現在の業界の需要を反映した新しいテストを含むように拡張された。これらのベンチマークは、幅広いAIユースケースを評価するように設計されており、ベンチマークがAIテクノロジーの急速な進歩に合わせて進化することを保証する。あるテクノロジー企業はこれらのベンチマークで特に優れた成績を収め、新しいパフォーマンス記録を樹立し、プラットフォームの拡張性と効率性を実証した。この企業は、最新の製品により、数兆パラメータのAIモデルへのアクセスを民主化しようとしている。

ソース:NVIDIA Developer Blog