Google は、AI モデルとアプリケーションの機能を強化する最新の Tensor Processing Unit (TPU) である Trillium を発表しました。Trillium は、前身の TPU v5e と比較して、チップあたりのピーク コンピューティング パフォーマンスが 4.7 倍向上しています。この進歩により、新しい基盤モデルのトレーニングが加速され、世界中のユーザーに対する AI サービスの応答性が向上することが期待されます。

新しい TPU では、高帯域幅メモリの容量と帯域幅が 2 倍に増加し、チップ間相互接続帯域幅も強化されています。これらの改善は、より大規模で複雑な AI モデルをサポートし、トレーニング時間の短縮とレーテンシーの削減を実現するように設計されています。Google の Trillium TPU はエネルギー効率でも知られており、前世代よりも 67% 以上効率が向上しています。

Trillium のもう一つのハイライトはスケーラビリティです。1 つのポッドに最大 256 個の TPU を接続し、マルチスライス テクノロジーと Titanium Intelligence Processing Units を通じて数百個のポッドに拡張できます。これにより、最も要求の厳しい AI タスクを処理できるスーパーコンピューターを作成できます。

Google の AI への取り組みはハードウェアにとどまらず、AI 開発の効率化を目的としたオープンソース ライブラリやパートナーシップのサポートにも及びます。Trillium TPU を含む AI ハイパーコンピュータは、AI ワークロード向けの堅牢なインフラストラクチャを提供し、開発者や企業が最新の AI テクノロジーを活用できるようにします。

ソース:AI & Machine Learning | Google Cloud Blog