SambaNova Systems は、日本語の大規模言語モデルである「Fugaku-LLM」を Samba-1 Composition of Experts テクノロジに導入しました。日本最速のスーパーコンピュータ「富岳」でトレーニングされたこのモデルは、現在 SambaNova のプラットフォームからアクセスできます。理化学研究所計算科学研究センターの松岡聡氏は、このコラボレーションに熱意を示し、富岳の成果を広く利用できるようにすることの利点を強調しました。

SambaNova Systems の共同創設者兼 CEO である Rodrigo Liang 氏は、世界最先端の AI モデルを統合するという同社の取り組みを強調しました。Fugaku-LLM の組み込みは、トップクラスのオープンソース AI テクノロジを活用するという同社の戦略と一致しています。SambaNova のプラットフォームは、世界有数のスーパーコンピュータによって開発された高度なモデルをホストするように設計されています。

同社の CoE アーキテクチャは、複数のエキスパート モデルを組み合わせることでパフォーマンスを向上させるように設計されています。このアプローチにより、特定のアプリケーションに最適なエキスパートを選択して、精度を最適化できます。 Fugaku-LLM は、3 層メモリ システムとデータフロー アーキテクチャを備えた SambaNova の SN40L チップ上で効率的に動作するように調整されています。

SambaNova Systems は、ISC24 のブースで Samba-1 上の Fugaku-LLM を展示し、CoE フレームワーク内でのモデルの機能を参加者に直接確認してもらいます。

出典:プレスリリース