
MiMo
MiMo是由小米开发的7B参数语言模型系列,专门研究数学和代码推理能力,通过创新的预训练和后训练策略,实现了与更大模型相当的性能。
https://github.com/XiaomiMiMo/MiMo?ref=aipure&utm_source=aipure

产品信息
更新于:2025年05月16日
什么是 MiMo
MiMo是小米LLM-Core团队开发的一系列语言模型,专注于增强数学和代码方面的推理能力。该系列包括MiMo-7B-Base(基础模型)、MiMo-7B-RL(强化学习模型)、MiMo-7B-SFT(监督微调模型)和MiMo-7B-RL-Zero。尽管MiMo的规模相对较小,只有7B参数,但它表现出了卓越的推理能力,可以匹配甚至超过更大的32B模型的性能,甚至可以与OpenAI的o1-mini模型竞争。
MiMo 的主要功能
MiMo是由小米开发的7B参数语言模型系列,专门设计用于增强数学和代码方面的推理能力。它包括通过预训练和后训练策略相结合训练的不同版本(Base、SFT、RL-Zero和RL),具有多Token预测和专门的数据处理技术。该模型表现出卓越的性能,与更大的32B模型和OpenAI的o1-mini相匹配,尤其是在数学和编码任务中。
多Token预测: 增强的训练目标,可提高模型性能并加快推理速度
优化的预训练流程: 使用多维数据过滤和合成推理数据生成来增加推理模式密度
高级RL训练系统: 具有无缝Rollout引擎,通过连续Rollout和异步奖励计算,提供2.29倍的更快训练和1.96倍的更快验证
测试难度驱动的代码奖励: 为具有不同难度级别的测试用例实施精细的评分系统,以提供更有效的策略优化
MiMo 的使用场景
数学问题解决: 擅长解决复杂的数学问题,包括AIME级别的竞赛和一般的数学评估
代码开发和测试: 能够高精度地处理各种编码任务,尤其通过LiveCodeBench性能得到证明
通用推理任务: 在GPQA Diamond和SuperGPQA等通用推理基准测试中表现良好,使其适用于逻辑分析任务
优点
尽管尺寸较小(7B参数),但与较大模型的性能相匹配
在数学和编码任务中均表现出卓越的性能
通过多Token预测实现高效推理
具有多个模型变体的开源可用性
缺点
需要特定的vLLM fork才能获得最佳性能
与专门的推理任务相比,在通用语言任务上的性能较低
与其他推理引擎的验证有限
如何使用 MiMo
下载模型: 从Hugging Face(https://huggingface.co/XiaomiMiMo)下载MiMo模型之一。可用的模型有:MiMo-7B-Base、MiMo-7B-RL-Zero、MiMo-7B-SFT和MiMo-7B-RL
设置环境: 安装所需的依赖项。建议使用小米的vLLM分支,该分支基于vLLM 0.7.3(https://github.com/XiaomiMiMo/vllm/tree/feat_mimo_mtp)
选择推理方法: 您可以使用vLLM(推荐)或HuggingFace进行推理。vLLM支持MiMo的Multiple-Token Prediction (MTP) 功能
对于vLLM推理: 导入所需的库 (vllm),使用模型路径和参数(建议temperature=0.6)初始化LLM,使用空系统提示创建对话格式,并使用llm.chat()生成响应
对于HuggingFace推理: 从transformers导入AutoModel和AutoTokenizer,使用trust_remote_code=True加载模型和tokenizer,对输入进行tokenize,并使用model.generate()创建输出
配置参数: 使用temperature=0.6可获得最佳效果。建议使用空的系统提示以获得最佳性能
运行推理: 输入您的提示/查询,模型将生成响应。该模型在包括数学和代码在内的推理任务中尤其强大
处理输出: 处理模型输出中生成的文本。对于vLLM,通过output.outputs[0].text访问文本。对于HuggingFace,在输出上使用tokenizer.decode()
MiMo 常见问题
MiMo是由小米开发的一系列70亿参数的语言模型,专门为推理任务设计和训练。该系列包括MiMo-7B-Base、MiMo-7B-RL-Zero、MiMo-7B-SFT和MiMo-7B-RL模型。