Google AI は、PyTorch モデルを TensorFlow Lite ランタイムで使用するために変換するプロセスを簡素化する新しいツール、AI Edge Torch を導入しました。この統合は、開発者にさまざまなフレームワーク オプションを提供するという Google の幅広い取り組みの一環です。AI Edge Torch は、優れた CPU パフォーマンスと初期 GPU サポートを誇り、PyTorch を使用するユーザーにシームレスなエクスペリエンスを提供するように設計されています。幅広いモデルで検証されており、既存の TFLite ランタイムと互換性があるため、デプロイメント コードを変更する必要はありません。

Google AI Edge スイートは、ML パイプラインの構築やデバイス上でのモデル実行など、機械学習タスク用の包括的なツールセットを開発者に提供します。現在ベータ版の AI Edge Torch は、開発者が複数のプラットフォームで AI 機能を作成および展開できるように支援することを目的とした、計画されている一連のリリースの最初のものです。このツールは、コア PyTorch 演算子の大部分をサポートしており、今後のアップデートで機能が拡張される予定です。

Google AI は、PyTorch コミュニティを念頭に置いて AI Edge Torch を設計し、直感的なAPIと簡単な変換パスを提供しています。このツールは、PyTorch 2.x エクスポート標準に準拠したモデル変換に TorchDynamo と torch.export を活用しています。現在の実装では、コア PyTorch 演算子の大部分がすでにサポートされており、このサポートを強化する予定です。さらに、このツールには PT2E 量子化の例が含まれており、開発者が簡単に量子化ワークフローを実行できます。

モデルの範囲とパフォーマンスの点では、 Google AI の AI Edge Torch は、ONNX2TF などの以前のコミュニティ主導のソリューションと比較して大きな進歩を遂げています。テストでは、AI Edge Torch は ONNX2TF ベースラインと一貫したパフォーマンスを維持するだけでなく、 Androidデバイスで優れたパフォーマンスを発揮することが示されています。この開発は、開発者の負担を軽減し、幅広いデバイスでトップクラスのパフォーマンスを提供するという Google の使命を継続することを目的としています。

ソース:Google Developers Blog