技術イノベーション研究所(アブダビ)は、高性能な大規模言語モデル「ファルコン2」の新バージョンを発表。110億パラメータを持つ「ファルコン2 11B」と、画像からテキストへ変換する「ファルコン2 11B VLM」の2種類を公開し、AI分野における重要な進展を示した。

「ファルコン2 11B」は、著名なAIモデルとの比較で優れた性能を発揮。ハギング・フェイスのグローバル・リーダーボードで、グーグルのGemma 7Bと同等の結果を達成。両モデルはオープンソースで提供され、開発者が自由にアクセス可能。今後は「Mixture of Experts」を活用し、性能向上を目指す。

多言語対応の「ファルコン2 11B」は、多様な言語タスクに対応。一方、「ファルコン2 11B VLM」は、医療や金融など様々な分野での応用が期待される。GPU1つで効率的に動作し、軽量なデバイスへの導入も容易。

ATRC事務局長のファイサル・アル・バンナイ閣下は、「ファルコン2 11B」のリリースを通じて、オープンソース・ムーブメントへのコミットメントを強調。TIIのハキム・ハシッド博士は、AIの進化とアクセシビリティ向上について言及。新モデルは「ファルコン・ライセンス2.0」でライセンスされ、詳細はFalconLLM.TII.aeで確認可能。

出典:プレスリリース