rinna(東京都渋谷区)は、日本語の高性能モデル「Nekomata」シリーズを開発し、Tongyi Qianwen LICENSE AGREEMENTで公開した。AI技術の進歩に伴い、テキスト処理を含む多様な処理がAIによって可能になっている。rinnaはこれまで、日本語処理に特化した基盤モデルを提供し、AI開発を支援してきたという。

同社は、Qwen 7Bと14Bをベースに、日本語の学習データを用いた継続事前学習を行い、「Nekomata」シリーズを開発した。これにより、日本語テキスト生成と推論速度の向上を実現した。また、指示応答言語モデルも開発し、合計4モデルを公開した。これらのモデルは、日本のAI研究・開発の進展に貢献することが期待されるとのこと。

「Nekomata」シリーズは、Qwenの優れた性能を継承し、日本語タスクで高い成果を示している。ベンチマークスコアでは、Nekomata 7Bが58.69、14Bが67.38を記録。推論効率も高く、日本語テキスト処理において効率的なトークン数を実現しているとのこと。

Nekomataシリーズのライセンスは、商用利用も可能な条件で提供されている。詳細は公式情報で確認できる。また、Nekomata 14Bの開発には、AWS LLM開発支援プログラムが支援し、AWS Trainiumを搭載したインスタンスでの継続事前学習が約7日で完了したとのことだ。

ソース:News_rinna