[市場動向]

楽天、大規模言語モデル「Rakuten AI 2.0」と小規模言語モデル「Rakuten AI 2.0 mini」をOSSとして提供

複数のサブモデルで構成するMoEアーキテクチャを採用

2025年2月13日(木)日川 佳三(IT Leaders編集部)

楽天グループは2025年2月12日、大規模言語モデル「Rakuten AI 2.0」と小規模言語モデル「Rakuten AI 2.0 mini」を提供開始した。いずれも2024年12月に発表済みのモデルであり、複数のサブモデルで構成したMixture of Experts(MoE)アーキテクチャを採用している。今回、これらの基盤モデルと、インストラクションチューニング済みモデルの提供を開始した。いずれもApache 2.0ライセンスを採用したOSSであり、Hugging Faceからダウンロードできる。

 楽天グループの「Rakuten AI 2.0」は大規模言語モデル(LLM)、「Rakuten AI 2.0 mini」は小規模言語モデル(SLM)である。基盤モデルとインストラクションチューニング済みモデル(プロンプトへの指示とアウトプットのデータセットでファインチューニングしたモデル)を用意した。全モデルはApache 2.0ライセンスを採用したOSS(オープンソースソフトウェア)であり、Hugging Faceからダウンロードできる。

 特徴の1つは、複数のサブモデル(エキスパート)で構成するMixture of Experts(MoE)アーキテクチャを採用したこと。推論や学習において、その場面で最も適したエキスパートのサブセットだけをアクティブ化して入力データを処理する仕組みである。これにより、汎用的で高度な推論を行えるとしている。

 LLMのRakuten AI 2.0は、2024年3月に公開した「Rakuten AI 7B」を基に開発した、8x7BのMoEモデルである。8つの70億パラメータで構築したサブモデルで構成する。一方、SLMのRakuten AI 2.0 miniは、15億パラメータの小規模モデルである。いずれも日本語と英語のデータを用いて学習している。

 楽天は、会話形式や指示形式のデータを使って基盤モデルをファインチューニングした後、ベンチマーク「日本語版MT-Bench」を使って性能を評価した。Rakuten AI 2.0のインストラクションチューニング済みモデル、Rakuten AI 2.0 miniのインストラクションチューニング済みモデル、および他の国産モデルとの比較スコアは、表1の通りである。

表1:LLM「Rakuten AI 2.0」とSLM「Rakuten AI 2.0 mini」のベンチマーク値(出典:楽天グループ)
拡大画像表示

 日本語版MT-Benchの値を見ると、Rakuten AI 2.0インストラクションチューニング済みモデルは、同程度のアクティブパラメータ数を持つ他のモデルと比べて性能が高い。同様に、Rakuten AI 2.0 miniインストラクションチューニング済みモデルも、同様のサイズのモデルと比べて性能が高い。

関連キーワード

楽天 / 大規模言語モデル / 生成AI / R&D

関連記事

トピックス

[Sponsored]

楽天、大規模言語モデル「Rakuten AI 2.0」と小規模言語モデル「Rakuten AI 2.0 mini」をOSSとして提供楽天グループは2025年2月12日、大規模言語モデル「Rakuten AI 2.0」と小規模言語モデル「Rakuten AI 2.0 mini」を提供開始した。いずれも2024年12月に発表済みのモデルであり、複数のサブモデルで構成したMixture of Experts(MoE)アーキテクチャを採用している。今回、これらの基盤モデルと、インストラクションチューニング済みモデルの提供を開始した。いずれもApache 2.0ライセンスを採用したOSSであり、Hugging Faceからダウンロードできる。

PAGE TOP