MiniMax M2.5 — オープンウェイトとプロプラの性能差が史上最小に

MiniMax M2.5 — オープンウェイトとプロプラの性能差が史上最小に

MiniMax M2.5がSWE-Bench Verified 80.2%を達成し、Claude Opus 4.6を超えた。オープンウェイトモデルとプロプライエタリモデルの性能格差が急速に縮小している現状をベンチマークデータとともに分析します。

オープンウェイトモデルの逆襲が始まった

2026年2月、AI業界に衝撃が走りました。中国のAIスタートアップMiniMaxが公開したMiniMax M2.5が、コーディング・エージェントタスク・検索など複数のベンチマークでプロプライエタリモデルを上回るスコアを記録したのです。

Reddit r/LocalLLAMAでは362ポイント以上の注目を集め、「オープンウェイトモデルがついにクローズドモデルに追いついた」という議論が活発化しています。この記事では、M2.5の具体的な性能データと、オープンvsクローズドモデルの構図変化を詳しく分析します。

MiniMax M2.5の主要スペック

MiniMax M2.5は229Bパラメータのオープンウェイトモデルで、HuggingFaceから自由にダウンロードできます。主な特徴は以下の通りです。

  • パラメータ数: 229B(MoEアーキテクチャ)
  • 学習手法: 20万以上の実環境での強化学習(RL)
  • 推論速度: 100トークン/秒(Lightningバージョン)
  • 対応言語: Go、C、C++、TypeScript、Rust、Python、Java等10言語以上
  • デプロイ: SGLang、vLLM、Transformers、KTransformers対応

ベンチマーク比較:クローズドモデルとの差がほぼゼロに

SWE-Bench Verified(コーディング)

SWE-Bench Verifiedは実際のGitHubイシューを解決する能力を測定するベンチマークです。

モデルスコア種類
MiniMax M2.580.2%オープンウェイト
Claude Opus 4.6プロプライエタリ
MiniMax M2.1オープンウェイト

さらに、異なるエージェントハーネスでのテスト結果も注目に値します:

  • Droidハーネス: M2.5(79.7%)> Opus 4.6(78.9%)
  • OpenCodeハーネス: M2.5(76.1%)> Opus 4.6(75.9%)

いずれの環境でも、オープンウェイトモデルがプロプライエタリモデルを僅差ながら上回るという歴史的な結果です。

Multi-SWE-Bench(マルチリポジトリ)

複数リポジトリにまたがるタスクでは51.3%を達成。より複雑な実務シナリオでも高い性能を示しています。

BrowseComp(検索・ツール使用)

ウェブ検索とツール呼び出し能力を測定するBrowseCompでは76.3%(コンテキスト管理込み)を記録し、業界最高水準に到達しました。

コスト革命:性能だけでなく価格でも圧倒

M2.5の衝撃は性能だけではありません。コストパフォーマンスが桁違いです。

項目M2.5 LightningM2.5 Standard
入力価格$0.3/100万トークン$0.15/100万トークン
出力価格$2.4/100万トークン$1.2/100万トークン
推論速度100 TPS50 TPS
1時間連続稼働コスト$1.0$0.3

Claude Opus、Gemini 3 Pro、GPT-5と比較すると、出力トークン単価で10分の1から20分の1のコストです。年間4インスタンスを24時間稼働させても約$10,000で済みます。

なぜM2.5はここまで速く進化できたのか

大規模強化学習(RL Scaling)

MiniMaxは独自の「Forge」というエージェントネイティブRLフレームワークを開発しました。

graph TD
    A[Forge RLフレームワーク] --> B[20万+実環境]
    A --> C[CISPOアルゴリズム]
    A --> D[プロセス報酬メカニズム]
    B --> E[コーディング環境]
    B --> F[検索環境]
    B --> G[オフィスワーク環境]
    C --> H[MoEモデル安定学習]
    D --> I[長文脈品質監視]
    E & F & G --> J[M2.5]
    H & I --> J

主な技術的ポイント:

  • 非同期スケジューリング最適化: システムスループットとサンプルのオフポリシー度のバランスを最適化
  • ツリー構造マージ戦略: トレーニングサンプルの結合で約40倍の学習速度向上
  • CISPOアルゴリズム: MoEモデルの大規模学習安定性を確保
  • プロセス報酬: エージェントロールアウトの長文脈における信用割り当て問題に対処

Spec-Writing能力の創発

M2.5の特筆すべき点は、コードを書く前にアーキテクトのように設計・計画する能力が学習中に自然と創発したことです。プロジェクトの機能、構造、UIデザインを事前に分解・計画してからコーディングに入るため、より実務に即した開発が可能です。

オープンvsクローズドの構図変化

歴史的な転換点

これまでAI業界では「最高性能のモデルは常にプロプライエタリ」という暗黙の了解がありました。しかし、M2.5の登場で状況が一変しています。

graph LR
    subgraph 2024年
        A[クローズド<br/>圧倒的優位] --> B[オープン<br/>大幅に劣る]
    end
    subgraph 2025年後半
        C[クローズド<br/>やや優位] --> D[オープン<br/>追い上げ]
    end
    subgraph 2026年初頭
        E[クローズド<br/>同等] --- F[オープン<br/>一部で逆転]
    end

企業にとっての意味

  1. ベンダーロックイン回避: オープンウェイトモデルでフロンティア性能が得られるなら、特定APIベンダーへの依存を減らせる
  2. カスタマイズの自由: 自社データでのファインチューニング、ドメイン特化が可能
  3. コスト最適化: セルフホスティングによるコスト管理、M2.5のAPI利用でも1/10〜1/20のコスト
  4. データプライバシー: 機密データを外部に送信する必要がない

ローカルデプロイメントの現実性

229Bパラメータは決して小さくありませんが、KTransformersなどのフレームワークを使えば、消費者向けハードウェアでも動作可能です。SGLangやvLLMでの本番デプロイメントも公式にサポートされています。

M2シリーズの急速な進化

わずか3.5ヶ月(2025年10月末〜2026年2月)で、MiniMaxはM2、M2.1、M2.5と3世代をリリースしました。

バージョンリリース時期SWE-Bench改善特筆事項
M22025年10月末ベースラインHuggingFace 450Kダウンロード
M2.12025年12月大幅改善86.7Kダウンロード
M2.52026年2月80.2% SOTA37%高速化、コスト1/10

この進化速度は、Claude、GPT、Geminiファミリーを上回るペースであるとMiniMax自身が報告しています。

社内での実践導入

MiniMaxは自社でもM2.5を積極活用しています:

  • 全社タスクの30%をM2.5が自律的に完了
  • R&D、プロダクト、営業、人事、財務にまたがる活用
  • 新規コミットコードの80%がM2.5生成

これは「自社のAIモデルで自社の業務を回す」という、AGIへの一歩とも言える実践です。

まとめ:知っておくべき3つのポイント

  1. 性能格差の消滅: オープンウェイトモデルがSWE-Benchでクローズドモデルを超えた。これは一時的な現象ではなく、構造的な変化の始まり

  2. コスト革命: M2.5はOpus比1/10〜1/20のコストで同等以上の性能を提供。「コストを気にしなくていいフロンティアモデル」が現実に

  3. 選択肢の拡大: 企業はもはやプロプライエタリモデル一択ではない。オープンウェイトモデルによるセルフホスティング、カスタマイズ、コスト最適化が実用的な選択肢に

AI開発者にとって、2026年はオープンウェイトモデルの「黄金時代」の幕開けとなるかもしれません。

参考資料

他の言語で読む

この記事は役に立ちましたか?

より良いコンテンツを作成するための力になります。コーヒー一杯で応援してください!☕

著者について

JK

Kim Jangwook

AI/LLM専門フルスタック開発者

10年以上のWeb開発経験を活かし、AIエージェントシステム、LLMアプリケーション、自動化ソリューションを構築しています。Claude Code、MCP、RAGシステムの実践的な知見を共有します。