MiniMax M2.7発表|「Opus 4.6を圧倒」の声も──M2.5から何が変わったのか

|Aitly編集部

海外で話題

2026年3月18日 Aitly編集部

この記事のポイント

  • MiniMaxが次世代モデル「M2.7」を発表、r/LocalLLaMAで複数スレッドが注目を集める
  • 早期テスターがClaude Opus 4.6との比較テストで「圧倒」と評価する動画を公開
  • 強化学習ベースの「再帰的自己改善」をコンセプトに掲げる新アーキテクチャ
  • Anthropic互換APIを提供し、Claude Code等のツールからそのまま利用可能
  • MiniMax株(0100.HK)は発表日に12.58%上昇

MiniMax M2.7とは──「再帰的自己改善の始まり」

中国のAIスタートアップMiniMaxが、次世代大規模言語モデル「M2.7」を発表した。公式には「Beginning the journey of recursive self-improvement(再帰的自己改善の旅の始まり)」と謳われ、多数の実環境で強化学習を行い、推論を最適化したモデルとされる。

注目すべきはバージョン番号で、前世代のM2.5からM2.6を飛ばしてM2.7に直接ジャンプしている。Redditユーザーは「2.6をスキップした」と指摘しており、内部的に大きなアーキテクチャ変更があったことを示唆する。

前世代M2.5からの進化ポイント

前世代のM2.5はMoE(Mixture of Experts)アーキテクチャを採用し、総パラメータ230B・アクティブパラメータ10Bという効率的な構成で、20万トークンのコンテキストウィンドウと最大12.8万トークンの出力をサポートしていた。コード生成・リファクタリングに特化した設計で、r/LocalLLaMAでは「4bit量子化で150GB以下に収まるモデルとしては最高」(7↑)と評価されていた。

項目 M2.5 M2.7(判明分)
アーキテクチャ MoE(230B/10B active) MoE(詳細未公開)
学習手法 標準的な事前学習+SFT 実環境での強化学習+再帰的自己改善
コード能力 コード生成・リファクタリング特化 polyglot code mastery + precision refactoring
マルチモーダル テキストのみ 未確認(M3.0待ちの可能性)
API互換性 OpenAI互換 Anthropic互換APIを追加

M2.7の大きな特徴は、公式が「モデルの自律的なハーネス反復能力が重要」と述べている点だ。これは、モデル自身がツールの使い方(ハーネス)を改善していく仕組みを指しており、単なるモデル重みの更新ではなくエージェント的な自己改善を目指していることがわかる。

早期テスターの反応──「Opus 4.6を圧倒」は本当か

YouTubeチャンネル「AiCodeKing」が早期テスト動画を公開し、M2.7が「Claude Opus 4.6を圧倒した(obliterated)」と主張して話題になっている。またX(Twitter)ではユーザー@F2aldi氏がM2.7の「エージェント的振る舞い」を報告しており、タスクを与えた際にモデルが逆に質問を返してくるプッシュバック能力が確認されている。

ただしこれらは限定的なテスト結果であり、独立した大規模ベンチマークはまだ公開されていない。DesignArenaではコードネーム「DeepOcto」として登録されており(前世代M2.5は「Deepmolt」)、今後アリーナでの正式評価が進むと見られる。

Redditユーザーの声(r/LocalLLaMA)

“2.5 is genuinely the best model that still fits in under ~150 GB at 4 bit so far imo” ── M2.5への高評価(7↑)

“I’ve set up minimax 2.5 for a large client and it’s so good with tooling and RAG. Really fast too” ── 実務での評価(10↑)

“I hope they gonna give us a lite/flash smaller version of the model” ── 小型バリアントへの期待(13↑)

Anthropic互換API──Claude Codeからそのまま使える

M2.7の実用面で最も注目すべきはAnthropic互換APIの提供だ。エンドポイントは国際向け(api.minimax.io/anthropic)と中国向け(api.minimaxi.com/anthropic)の2つが用意されており、Claude Code等のAnthropic SDK互換ツールからAPIエンドポイントを差し替えるだけで利用できる。

これはオープンソースLLMの新しいトレンドだ。OpenAI互換APIは以前から一般的だったが、Anthropic互換APIの提供はClaude Codeユーザーの取り込みを明確に狙っている。無料枠もあり、高コストなClaudeのサブスクリプションに不満を持つ開発者にとって魅力的な選択肢になる。

マルチモーダル対応はM3.0待ちか

Redditでは「M2.7はマルチモーダルか?」という質問が複数上がっているが、現時点ではテキストのみの可能性が高い。あるユーザーは「weight updateであり、visionは含まれない。M3.0を待つ必要がありそう」(2↑)とコメントしている。M2.5で不足していた画像・音声入力への対応は次世代以降に持ち越される見通しだ。

株価12%上昇──市場の期待値

MiniMaxの香港上場株(0100.HK)はM2.7発表日に12.58%上昇した。オープンソースLLM企業の新モデル発表でこの規模の株価反応が出るのは珍しく、市場がMiniMaxのポジショニングに高い期待を寄せていることがわかる。

r/LocalLLaMAのコメントでも「Nemotron、Mistral、そしてMiniMax──ローカルAIの冬は来なかった」(7↑)という声があり、オープンソース/オープンウェイトモデルの競争がさらに激化している現状が伝わる。

まとめ──ベンチマーク待ちだが期待値は高い

MiniMax M2.7はまだ独立ベンチマークが出揃っていない段階であり、「Opus 4.6を圧倒」という主張の検証はこれからだ。しかし前世代M2.5の実績(ローカル実行可能な最高性能モデルとしての評価)、Anthropic互換APIという戦略的な差別化、そして株価の反応を見る限り、注目に値するモデルであることは間違いない。

DesignArenaでの正式評価結果や、コミュニティによる大規模テストが公開され次第、Aitlyでも詳細な比較検証を行う予定だ。

よくある質問

MiniMax M2.7は無料で使える?
MiniMaxは無料枠を提供している。APIはAnthropic互換とOpenAI互換の両方に対応しており、国際向けエンドポイント(api.minimax.io)から利用可能。モデルの重みもオープンソースで公開される見込みだ。
ローカルで動かせる?
前世代M2.5は4bit量子化で約150GBに収まり、ハイエンドなローカル環境で実行可能だった。M2.7も同様のMoEアーキテクチャを採用している可能性が高く、VRAM 80GB以上のGPU環境があればローカル実行が期待できる。
Claude CodeからMiniMax M2.7を使うには?
Anthropic互換APIが提供されているため、Claude CodeのベースURL設定をapi.minimax.io/anthropicに変更するだけで利用できる。ただしすべてのClaude固有機能(MCP等)が互換性を持つかは未検証。