MiMo

MiMo

MiMoは、Xiaomiによって開発された7Bパラメーターの言語モデルシリーズであり、数学的およびコード推論能力に特化しており、革新的な事前トレーニングおよび事後トレーニング戦略を通じて、より大きなモデルに匹敵するパフォーマンスを実現しています。
https://github.com/XiaomiMiMo/MiMo?ref=aipure&utm_source=aipure
MiMo

製品情報

更新日:2025年05月16日

MiMoとは

MiMoは、XiaomiのLLM-Coreチームによって開発された一連の言語モデルであり、数学とコードの両方における推論能力の向上に焦点を当てています。このシリーズには、MiMo-7B-Base(ベースモデル)、MiMo-7B-RL(強化学習モデル)、MiMo-7B-SFT(教師ありファインチューニングモデル)、およびMiMo-7B-RL-Zeroが含まれています。MiMoは、7Bパラメーターという比較的小さなサイズにもかかわらず、32Bモデルよりもはるかに大きなモデルのパフォーマンスに匹敵またはそれを超え、OpenAIのo1-miniモデルとも競合できる卓越した推論能力を発揮します。

MiMoの主な機能

MiMoはXiaomiによって開発された7Bパラメータの言語モデルシリーズであり、特に数学とコードの両方における推論能力の向上を目的として設計されています。複数のトークン予測や特殊なデータ処理技術を特徴とし、事前学習と事後学習の戦略を組み合わせてトレーニングされたさまざまなバージョン(Base、SFT、RL-Zero、RL)が含まれています。このモデルは、特に数学およびコーディングのタスクにおいて、より大規模な32BモデルやOpenAIのo1-miniに匹敵する優れたパフォーマンスを示しています。
複数のトークン予測: モデルのパフォーマンスを向上させ、推論速度を加速する強化されたトレーニング目標
最適化された事前学習パイプライン: 多次元データフィルタリングと合成推論データ生成を使用して、推論パターンの密度を高めます
高度なRLトレーニングシステム: 継続的なロールアウトと非同期報酬計算を通じて、2.29倍高速なトレーニングと1.96倍高速な検証を提供するシームレスロールアウトエンジンを搭載しています
テスト難易度駆動型コード報酬: より効果的なポリシー最適化を提供するために、さまざまな難易度レベルのテストケースに対してきめ細かいスコアリングシステムを実装します

MiMoのユースケース

数学の問題解決: AIMEレベルの競技会や一般的な数学の評価を含む、複雑な数学の問題を解決することに優れています
コードの開発とテスト: 特にLiveCodeBenchのパフォーマンスを通じて実証されているように、さまざまなコーディングタスクを高精度で処理します
一般的な推論タスク: GPQA DiamondやSuperGPQAのような一般的な推論ベンチマークで優れたパフォーマンスを発揮し、論理分析タスクに適しています

メリット

より小さいサイズ(7Bパラメータ)にもかかわらず、より大規模なモデルのパフォーマンスに匹敵します
数学とコーディングの両方のタスクで優れたパフォーマンスを発揮します
複数のトークン予測による効率的な推論
複数のモデルバリアントを備えたオープンソースの可用性

デメリット

最適なパフォーマンスを得るには、特定のvLLMフォークが必要です
特殊な推論タスクと比較して、一般的な言語タスクでのパフォーマンスが低い
他の推論エンジンでの検証が限られている

MiMoの使い方

モデルをダウンロード: Hugging Face(https://huggingface.co/XiaomiMiMo)からMiMoモデルのいずれかをダウンロードします。利用可能なモデルは、MiMo-7B-Base、MiMo-7B-RL-Zero、MiMo-7B-SFT、およびMiMo-7B-RLです。
環境をセットアップ: 必要な依存関係をインストールします。vLLM 0.7.3に基づくXiaomiのvLLMのフォーク(https://github.com/XiaomiMiMo/vllm/tree/feat_mimo_mtp)を使用することをお勧めします。
推論方法を選択: 推論には、vLLM(推奨)またはHuggingFaceのいずれかを使用できます。vLLMは、MiMoのMultiple-Token Prediction(MTP)機能をサポートしています。
vLLM推論の場合: 必要なライブラリ(vllm)をインポートし、モデルパスとパラメーター(temperature=0.6を推奨)を使用してLLMを初期化し、空のシステムプロンプトで会話形式を作成し、llm.chat()を使用して応答を生成します。
HuggingFace推論の場合: transformersからAutoModelとAutoTokenizerをインポートし、trust_remote_code=Trueでモデルとトークナイザーをロードし、入力をトークン化し、model.generate()を使用して出力を生成します。
パラメーターを構成: 最良の結果を得るには、temperature=0.6を使用します。最適なパフォーマンスを得るには、空のシステムプロンプトを使用することをお勧めします。
推論を実行: プロンプト/クエリを入力すると、モデルが応答を生成します。このモデルは、数学やコードなどの推論タスクに特に優れています。
出力を処理: モデル出力から生成されたテキストを処理します。vLLMの場合、output.outputs[0].textからテキストにアクセスします。HuggingFaceの場合、出力でtokenizer.decode()を使用します。

MiMoのよくある質問

MiMoは、Xiaomiによって開発された7Bパラメータの言語モデルのシリーズであり、特に推論タスクのために設計およびトレーニングされています。このシリーズには、MiMo-7B-Base、MiMo-7B-RL-Zero、MiMo-7B-SFT、およびMiMo-7B-RLモデルが含まれています。

MiMoに類似した最新のAIツール

Gait
Gait
Gaitは、AI支援コード生成とバージョン管理を統合するコラボレーションツールであり、チームがAI生成コードのコンテキストを効率的に追跡、理解、共有できるようにします
invoices.dev
invoices.dev
invoices.devは、開発者のGitコミットから直接請求書を生成する自動請求プラットフォームで、GitHub、Slack、Linear、Googleサービスとの統合機能を備えています。
EasyRFP
EasyRFP
EasyRFPは、RFP(提案依頼)の応答を効率化し、深層学習技術を通じてリアルタイムのフィールド表現型を可能にするAI駆動のエッジコンピューティングツールキットです
Cart.ai
Cart.ai
Cart.aiは、コーディング、顧客関係管理、ビデオ編集、eコマースの設定、カスタムAI開発を含む包括的なビジネス自動化ソリューションを提供するAI駆動のサービスプラットフォームで、24時間365日のサポートがあります