楽天が国産最大「Rakuten AI 3.0」を無償公開|671Bパラメータ・GPT-4o超えのベンチマーク結果

|Aitly編集部

AIニュース

2026年3月18日 Aitly編集部

この記事のポイント

  • 楽天がGENIACプロジェクトで開発した671Bパラメータの国産最大級AIモデルを公開
  • MoEアーキテクチャ採用でアクティブパラメータは37B、コンテキスト長128K
  • 日本語ベンチマーク4項目すべてでGPT-4oを上回る結果
  • Apache 2.0ライセンスで無償公開、商用利用も制限なし
  • 前世代のRakuten AI 2.0から総パラメータ数を約14倍にスケールアップ

Rakuten AI 3.0とは──国内最大規模の日本語特化AIモデル

楽天グループは2026年3月17日、国産最大規模のAIモデル「Rakuten AI 3.0」を公式に発表した。経済産業省とNEDOが推進する「GENIACプロジェクト(Generative AI Accelerator Challenge)」の支援を受けて開発されたモデルで、日本語の文章作成・コード生成・文書解析に特化している。

Rakuten AI 3.0は約671B(6,710億)パラメータを持つMixture of Experts(MoE)アーキテクチャを採用。推論時のアクティブパラメータは37Bに抑えられており、巨大なモデルサイズながら効率的な推論が可能だ。コンテキスト長は128Kトークンで、長文の文書解析にも対応する。

ベンチマーク──日本語4項目でGPT-4oを上回る

Rakuten AI 3.0は複数の日本語ベンチマークでGPT-4oを上回るスコアを記録している。特に数学(MATH-100)では11.1ポイント差、大学院レベルの推論(MMLU-ProX)では6.8ポイント差と大きな優位性を示した。

ベンチマーク Rakuten AI 3.0 GPT-4o 差分
JamC-QA(日本文化知識) 76.9 74.7 +2.2
MMLU-ProX(大学院レベル推論) 71.7 64.9 +6.8
MATH-100(競技数学) 86.9 75.8 +11.1
M-IFEval(指示追従) 72.1 67.3 +4.8

すべて日本語での評価であり、日本語の文化的知識(JamC-QA)でもGPT-4oを上回っている点が注目される。楽天は「日本語に最適化されたモデル」と位置づけており、ベンチマーク結果はその方針が成果を上げていることを示している。

Rakuten AI 2.0からの進化──パラメータ数14倍

楽天のAIモデルはRakuten AI 7B(70億パラメータ)→ 2.0(470億パラメータ)→ 3.0(6,710億パラメータ)と急速にスケールアップしてきた。前世代との比較で、その進化の大きさが見て取れる。

項目 Rakuten AI 2.0 Rakuten AI 3.0
総パラメータ数 47B 671B(約14倍)
アクティブパラメータ数 13B 37B(約2.8倍)
アーキテクチャ MoE(8エキスパート) MoE(大規模)
コンテキスト長 非公開 128K
ライセンス Apache 2.0 Apache 2.0

総パラメータ数は約14倍に増加したが、MoEアーキテクチャにより推論時のアクティブパラメータは37Bに留まる。モデルサイズの爆発的な増加を推論効率の低下に直結させない設計だ。

GENIACプロジェクトとは──国が支援する生成AI開発

Rakuten AI 3.0の開発を支えたGENIAC(Generative AI Accelerator Challenge)は、経済産業省とNEDO(新エネルギー・産業技術総合開発機構)が推進する国家プロジェクトだ。生成AIモデルの学習に必要な計算リソース(GPU等)の費用を補助し、日本の生成AI開発力を強化することを目的としている。

楽天は2025年7月にGENIAC第3期公募で採択された。同プロジェクトからは国立情報学研究所のLLM-jpなども生まれており、日本のAI開発エコシステムを下支えする重要な施策だ。

他の国産LLMとの位置づけ

Rakuten AI 3.0は国産オープンソースLLMとしては最大規模のモデルだ。Preferred NetworksのPLaMo(100B級)、東京工業大学のSwallow(7B〜70B)、国立情報学研究所のLLM-jp(1.8B〜13B)と比較しても、671Bという規模は突出している。

モデル 開発元 パラメータ規模 特徴
Rakuten AI 3.0 楽天 671B MoE、Apache 2.0、128Kコンテキスト
PLaMo Preferred Networks 100B級 独自アーキテクチャ、企業向け
Swallow 東京工業大学 7B〜70B Llamaベースの日本語継続事前学習
LLM-jp 国立情報学研究所 1.8B〜13B 学術主導、GENIAC第1期成果

Apache 2.0ライセンスによる商用利用の制限なし、128Kトークンのコンテキスト長、そしてMoEによる推論効率の3点がRakuten AI 3.0の差別化ポイントだ。

利用方法──Hugging Faceから無料でダウンロード

Rakuten AI 3.0はApache 2.0ライセンスで公開されており、楽天の公式Hugging Faceリポジトリから無料でダウンロードできる。推論にはSGLang(TP=8)が推奨されている。テンソル型はF32、BF16、F8_E4M3に対応する。

ただし671Bパラメータのモデルを動かすには相応のGPUリソースが必要だ。個人開発者にとっては量子化版やAPIアクセスの提供が今後の利用拡大の鍵になるだろう。

Aitly編集部の見解

Rakuten AI 3.0は国産LLMとして大きなマイルストーンだ。671Bパラメータという規模は、これまでの国産モデルとは一線を画す。GPT-4oを上回るベンチマーク結果も、単なる「国産だから」ではなく実力で勝負できるモデルであることを示している。

ただし、ベンチマークスコアが高いことと実用性が高いことは別の話だ。比較対象のGPT-4oもすでに最新モデルではなく、GPT-4.5やo3との比較がない点は注意が必要だ。また、671Bモデルを実際に動かせる環境は限られるため、企業や研究機関が中心的なユーザーになるだろう。それでも、Apache 2.0で完全オープンに公開し、国内のAI開発エコシステムに貢献する姿勢は高く評価したい。GENIACプロジェクトの成果として、国が支援するAI開発が着実に実を結んでいることの証でもある。

よくある質問

Rakuten AI 3.0は無料で使えますか?
Apache 2.0ライセンスで公開されており、無料でダウンロード・利用できます。商用利用にも制限はありません。ただし、671Bパラメータのモデルを動かすには大規模なGPUリソースが必要です。
GPT-4oより本当に優れていますか?
楽天が公表したベンチマーク(JamC-QA、MMLU-ProX、MATH-100、M-IFEval)の4項目すべてでGPT-4oを上回っています。ただし、これらは日本語に特化した評価であり、すべてのタスクで上回ることを意味するものではありません。また、GPT-4.5やo3との比較データは公開されていません。
個人でも使えますか?
Hugging Faceからダウンロード可能ですが、671Bパラメータのモデルを推論するには複数のハイエンドGPUが必要です。現時点ではAPIサービスやクラウド推論環境は楽天からは提供されていないため、個人利用のハードルは高いと言えます。量子化版の登場が期待されます。
GENIACプロジェクトとは何ですか?
経済産業省とNEDOが推進する国家プロジェクトで、正式名称は「Generative AI Accelerator Challenge」です。生成AIモデルの学習に必要な計算リソース(GPU等)の費用を補助し、日本の生成AI開発力を強化することを目的としています。Rakuten AI 3.0は第3期公募の成果です。