ワイヤレス接続、スマート センシング テクノロジー、カスタム SoC ソリューションの大手ライセンサーであるCEVA, Inc. (NASDAQ: CEVA) は、強化された NeuPro-M NPU ファミリを発表できることを誇りに思います。この画期的なテクノロジーは、次世代の生成AIの処理ニーズに直接対応し、クラウドからエッジまでのあらゆる AI 推論ワークロードに対して業界をリードするパフォーマンスと電力効率を提供します。

NeuPro-M NPU アーキテクチャとツールは、トランスフォーマー ネットワーク、CNN、その他のニューラル ネットワークをサポートするために大幅に再設計されています。この強化された機能により、生成 AI と従来の AI の力を活用する、高度に最適化されたアプリケーションの開発と実行が可能になります。通信ゲートウェイ、接続されたネットワーク、自動車、ノートブック、タブレット、AR/VR ヘッドセット、スマートフォン、その他のクラウドまたはエッジのユースケースであっても、NeuPro-M NPU は優れたコストと電力効率を実現します。

CEVAの副社長兼ビジョン ビジネス ユニットのゼネラル マネージャーである Ran Snir 氏は、この進歩の重要性について次のように説明しています。「生成AIを推進するトランスフォーマー ベースのネットワークには、コンピューティング リソースとメモリ リソースの大幅な増加が必要であり、これには新しいアプローチと最適化された処理が必要です。当社の NeuPro-M NPU IP は、現在および将来にわたってクラシック AI と生成AI の両方のワークロードを効率的かつコスト効率よく処理できるように特別に設計されており、エッジからクラウドまでのユースケースに対応できる拡張性があり、将来のサポートが保証されています「新しい推論モデル。このアーキテクチャで達成したパフォーマンスの飛躍的な向上により、コスト重視のエッジ デバイスから高効率のクラウド コンピューティング、そしてその間のすべてに至るまで、あらゆるユースケースに生成AIの驚くべき可能性がもたらされます。」

ABI Research によると、エッジ AI の出荷台数は 2023 年の 24 億台から 2028 年には 65 億台に増加すると予測されており、この成長には生成AI が重要な役割を果たしています。エッジ アプリケーションがより洗練され、インテリジェントになるにつれて、強力で効率的な AI 推論技術に対する需要が増加しています。ただし、生成 AI でラージ言語モデル (LLM) とビジョンおよびオーディオ トランスフォーマーを使用すると、エッジ デバイスで実行する際のパフォーマンス、電力、コスト、レーテンシー、メモリの点で新たな課題が生じます。

ABI Research のシニア アナリストである Reece Hayden 氏は、生成 AI をサポートするためのより効率的なハードウェアの必要性を強調し、次のように述べています。「今日の生成AIのハードウェア市場は、少数のベンダーが独占的に集中しています。このテクノロジーの期待を実現するには、クラウドとエッジの両方で、低消費電力、低コストの推論処理を実現するための明確な道筋が必要です。これは、より小さなモデル サイズとそれを実行するためのより効率的なハードウェアによって達成されます。CEVA の NeuPro-M NPU IP は、魅力的な機能を提供します。 NeuPro-M は、優れた電力バジェットを備えたデバイス上で生成 AI を展開するための提案であり、そのスケーラビリティにより、NeuPro-M はネットワーク機器やそれ以外のパフォーマンス重視のユースケースにも対応できます。」

強化された NeuPro-M アーキテクチャにより、インフラストラクチャ、産業、モバイル、コンシューマ、自動車、PC、およびモバイル市場のアプリケーションは変革を迎えることになります。このアーキテクチャは、統合された VPU (Vector Processing Unit) と将来のネットワーク層のサポートにより、汎用性が高く、将来性も備えています。さらに、このアーキテクチャは、データと重みの真のスパース性を備えたあらゆるアクティベーションとあらゆるデータ フローをサポートし、パフォーマンスを最大 4 倍加速できます。この多用途性と卓越したパフォーマンスおよび電力効率の組み合わせにより、NeuPro-M は現在業界で入手可能な最先端の NPU IP としての地位を確立しています。

AI アプリケーションの開発と最適化をさらにサポートするために、 CEVA は、受賞歴のあるニューラル ネットワーク AI コンパイラー CDNN に基づいて改良された包括的な開発ツール チェーンを提供します。このツール チェーンはアーキテクチャを認識しており、NeuPro-M 並列処理エンジンを最大限に活用し、顧客の AI アプリケーションの最適なパフォーマンスを保証します。 CDNN ソフトウェアには、帯域幅削減のためのメモリ マネージャーと最適な負荷分散アルゴリズムが含まれており、TVM や ONNX などの一般的なオープンソース フレームワークと互換性があります。

NPM11 NPU IP は現在、顧客導入向けに提供されており、NPM12、NPM14、および NPM18 は主要顧客向けに提供されています。強化された NeuPro-M NPU ファミリのパワーと効率を体験し、アプリケーションで生成AIの可能性を最大限に引き出します。

出典:プレスリリース