Lightning AIは最近、NVIDIA GTC AIコンファレンスでPyTorchの新しいコンパイラーであるThunderを発表した。Thunderは、複数のGPUでの生成AIモデルのトレーニングとデプロイの効率を高めるように設計されている。このツールは、ディープラーニング コンパイラーにおける2年間の研究開発を表しており、NVIDIAによってサポートされている。これにより、大規模言語モデル(LLM)のトレーニングに関連する時間とコストが大幅に削減され、従来の最適化されていないコードと比較してトレーニングが最大40%高速化される。

Thunderの開発は、2022年にLightning AIによって採用されたPyTorch専門家チームによって主導された。彼らの使命は、torch.compile、nvFuser、Apex、cuDNNなどのさまざまなNVIDIAエグゼキュータとソフトウェアの機能を活用できるシステムを作成することだった。OpenAIのTritonも同様だ。この統合により、開発者は各エグゼキュータを最適な数学演算に利用して、パフォーマンスを最適化できるようになる。このプロジェクトは、PyTorchとTorchScriptへの貢献で知られる深層学習の著名な人物であるThomas Viehmann博士によって主導されている。

さまざまな規模の企業が、AIワークロードを高速化するためにThunderを導入し始めている。このコンパイラーは、通常は大手技術組織のみに予約されている高度な最適化を民主化し、より広範なオープンソースコミュニティーが利用できるようにすることを目的としている。Lightning AIのCTO、Luca Antiga氏は、ThunderをLightning Studiosおよびそのプロファイリングツールと連携させることで、より効果的なGPUの利用が可能になり、これはAIコミュニティーがより複雑なモデルのトレーニングに移行する中で重要であることを強調した。

Thunderは現在、Apache 2.0ライセンスの下でオープンソースツールとしてアクセスできるようになっており、Lightning Studiosは研究者や開発者がGPUメモリーとパフォーマンスの問題を特定して対処できるよう、包括的なサポートとプロファイリングツールを提供している。Lightning AIのCEO、Will Falcon氏は、Viehmann博士とのパートナーシップと、ThunderがAIのアクセシビリティーとパフォーマンスを向上させる可能性について熱意を表明した。価格設定やサインアップの詳細など、ThunderおよびLightning Studioの詳細については、Lightning AI ウェブサイトをご覧ください。

出典:プレスリリース