Meta は、人工知能に重点を置いた次世代インフラストラクチャを積極的に開発しており、新興のジェネレーティブ AI 製品、洗練された推奨システム、高度な AI 研究をサポートすることを目指しています。同社は、AI モデルの計算需要が複雑化するにつれて、この投資が拡大すると予想しています。

最近のアップデートで、Meta は、同社のディープラーニング推奨モデルに合わせてカスタマイズされたカスタム設計の AI 推論アクセラレータである Meta Training and Inference Accelerator (MTIA) v1 を発表しました。これらのモデルは、Meta の一連のアプリとテクノロジ全体でユーザー エクスペリエンスを向上させるために不可欠です。MTIA は、Meta の特定の計算ワークロード向けにアーキテクチャを最適化するための戦略的な動きを表しています。

今後の MTIA のイテレーションは、Meta の包括的な開発プログラムの重要なコンポーネントであり、同社の独特の計算ニーズに対応するカスタム シリコン ソリューションの作成に重点を置いています。新しいバージョンでは、Meta のワークロード要件に密接に適合しながら、計算能力とメモリ帯域幅の両方が大幅に向上することが期待されています。このチップは、ユーザーに高品質のコンテンツ提案を提供することを目的としたランキング モデルと推奨モデルの管理に特に適しています。

Meta はすでに MTIA を自社のデータ センターに統合しており、そこでは実稼働モデルを積極的に実行しています。初期の結果では、このチップは、Meta の製品提供にとって極めて重要な、単純なランキング モデルと複雑なランキング モデル、および推奨モデルの両方を効率的に処理できることが示されています。Meta は、スタック全体を社内で管理することで、標準的な商用 GPU よりも高い効率を実現できると主張しています。同社のカスタム シリコンへの取り組みは、AI ワークロードに合わせて調整された堅牢で効率的なインフラストラクチャを構築するという、より広範な戦略の一部であり、コンピューティング シリコン、メモリ、ネットワーク、およびその他のハードウェア システムの将来の進歩に向けた計画も含まれています。

ソース:Meta Newsroom