AIニュース
この記事のポイント
- 楽天がGENIACプロジェクトで開発した671Bパラメータの国産最大級AIモデルを公開
- MoEアーキテクチャ採用でアクティブパラメータは37B、コンテキスト長128K
- 日本語ベンチマーク4項目すべてでGPT-4oを上回る結果
- Apache 2.0ライセンスで無償公開、商用利用も制限なし
- 前世代のRakuten AI 2.0から総パラメータ数を約14倍にスケールアップ
Rakuten AI 3.0とは──国内最大規模の日本語特化AIモデル
楽天グループは2026年3月17日、国産最大規模のAIモデル「Rakuten AI 3.0」を公式に発表した。経済産業省とNEDOが推進する「GENIACプロジェクト(Generative AI Accelerator Challenge)」の支援を受けて開発されたモデルで、日本語の文章作成・コード生成・文書解析に特化している。
Rakuten AI 3.0は約671B(6,710億)パラメータを持つMixture of Experts(MoE)アーキテクチャを採用。推論時のアクティブパラメータは37Bに抑えられており、巨大なモデルサイズながら効率的な推論が可能だ。コンテキスト長は128Kトークンで、長文の文書解析にも対応する。
ベンチマーク──日本語4項目でGPT-4oを上回る
Rakuten AI 3.0は複数の日本語ベンチマークでGPT-4oを上回るスコアを記録している。特に数学(MATH-100)では11.1ポイント差、大学院レベルの推論(MMLU-ProX)では6.8ポイント差と大きな優位性を示した。
すべて日本語での評価であり、日本語の文化的知識(JamC-QA)でもGPT-4oを上回っている点が注目される。楽天は「日本語に最適化されたモデル」と位置づけており、ベンチマーク結果はその方針が成果を上げていることを示している。
Rakuten AI 2.0からの進化──パラメータ数14倍
楽天のAIモデルはRakuten AI 7B(70億パラメータ)→ 2.0(470億パラメータ)→ 3.0(6,710億パラメータ)と急速にスケールアップしてきた。前世代との比較で、その進化の大きさが見て取れる。
総パラメータ数は約14倍に増加したが、MoEアーキテクチャにより推論時のアクティブパラメータは37Bに留まる。モデルサイズの爆発的な増加を推論効率の低下に直結させない設計だ。
GENIACプロジェクトとは──国が支援する生成AI開発
Rakuten AI 3.0の開発を支えたGENIAC(Generative AI Accelerator Challenge)は、経済産業省とNEDO(新エネルギー・産業技術総合開発機構)が推進する国家プロジェクトだ。生成AIモデルの学習に必要な計算リソース(GPU等)の費用を補助し、日本の生成AI開発力を強化することを目的としている。
楽天は2025年7月にGENIAC第3期公募で採択された。同プロジェクトからは国立情報学研究所のLLM-jpなども生まれており、日本のAI開発エコシステムを下支えする重要な施策だ。
他の国産LLMとの位置づけ
Rakuten AI 3.0は国産オープンソースLLMとしては最大規模のモデルだ。Preferred NetworksのPLaMo(100B級)、東京工業大学のSwallow(7B〜70B)、国立情報学研究所のLLM-jp(1.8B〜13B)と比較しても、671Bという規模は突出している。
Apache 2.0ライセンスによる商用利用の制限なし、128Kトークンのコンテキスト長、そしてMoEによる推論効率の3点がRakuten AI 3.0の差別化ポイントだ。
利用方法──Hugging Faceから無料でダウンロード
Rakuten AI 3.0はApache 2.0ライセンスで公開されており、楽天の公式Hugging Faceリポジトリから無料でダウンロードできる。推論にはSGLang(TP=8)が推奨されている。テンソル型はF32、BF16、F8_E4M3に対応する。
ただし671Bパラメータのモデルを動かすには相応のGPUリソースが必要だ。個人開発者にとっては量子化版やAPIアクセスの提供が今後の利用拡大の鍵になるだろう。
Aitly編集部の見解
Rakuten AI 3.0は国産LLMとして大きなマイルストーンだ。671Bパラメータという規模は、これまでの国産モデルとは一線を画す。GPT-4oを上回るベンチマーク結果も、単なる「国産だから」ではなく実力で勝負できるモデルであることを示している。
ただし、ベンチマークスコアが高いことと実用性が高いことは別の話だ。比較対象のGPT-4oもすでに最新モデルではなく、GPT-4.5やo3との比較がない点は注意が必要だ。また、671Bモデルを実際に動かせる環境は限られるため、企業や研究機関が中心的なユーザーになるだろう。それでも、Apache 2.0で完全オープンに公開し、国内のAI開発エコシステムに貢献する姿勢は高く評価したい。GENIACプロジェクトの成果として、国が支援するAI開発が着実に実を結んでいることの証でもある。