楽天(東京)は、フランスのMistral AI社の「Mistral-7B-v0.1」を基に開発した日本語基盤モデル「Rakuten AI 7B」を発表。このモデルは70億パラメータを持ち、楽天が設計したGPUクラスターで拡張的に事前学習された。また、チャットモデル「Rakuten AI 7B Chat」も提供され、会話形式の文章生成に特化している。

楽天のLLMは高品質なデータを用いた事前学習により、高い性能を実現。独自の形態素解析器を使用し、日本語の言語処理において効率性を高めている。さらに、言語モデル評価ツール「LM Evaluation Harness」による評価で、日本語と英語のLLMにおいて高いパフォーマンスが実証された。

全3モデルはApache 2.0ライセンスで提供され、楽天の「Hugging Face」リポジトリーからダウンロード可能。文章の要約や質問応答など、多様なテキスト生成タスクに商用利用が可能であり、他のモデルの基盤としても活用できる。

楽天のCDOティン・ツァイは、LLMの開発を通じて得た知見をオープンソースコミュニティーと共有し、日本語LLMの発展に貢献する意向を示した。楽天は、AI技術の活用を推進し、世界中に新たな価値を創出することを目指している。

出典:プレスリリース