
MiMo
MiMo adalah seri model bahasa 7B parameter yang dikembangkan oleh Xiaomi yang berspesialisasi dalam kemampuan penalaran matematika dan kode, mencapai kinerja yang sebanding dengan model yang lebih besar melalui strategi pra-pelatihan dan pasca-pelatihan yang inovatif.
https://github.com/XiaomiMiMo/MiMo?ref=aipure&utm_source=aipure

Informasi Produk
Diperbarui:May 16, 2025
Apa itu MiMo
MiMo adalah serangkaian model bahasa yang dikembangkan oleh Tim LLM-Core Xiaomi yang berfokus pada peningkatan kemampuan penalaran dalam matematika dan kode. Seri ini mencakup MiMo-7B-Base (model dasar), MiMo-7B-RL (model pembelajaran penguatan), MiMo-7B-SFT (model fine-tuning yang diawasi), dan MiMo-7B-RL-Zero. Meskipun ukurannya relatif kecil yaitu 7B parameter, MiMo menunjukkan kemampuan penalaran luar biasa yang dapat menyamai atau melampaui kinerja model 32B yang jauh lebih besar dan bahkan bersaing dengan model o1-mini OpenAI.
Fitur Utama MiMo
MiMo adalah rangkaian model bahasa 7B parameter yang dikembangkan oleh Xiaomi, yang dirancang khusus untuk kemampuan penalaran yang ditingkatkan baik dalam matematika maupun kode. Ini mencakup berbagai versi (Base, SFT, RL-Zero, dan RL) yang dilatih melalui kombinasi strategi pra-pelatihan dan pasca-pelatihan, menampilkan Prediksi Multi-Token dan teknik pemrosesan data khusus. Model ini menunjukkan kinerja luar biasa yang sesuai dengan model 32B yang lebih besar dan o1-mini OpenAI, terutama dalam tugas matematika dan pengkodean.
Prediksi Multi-Token: Tujuan pelatihan yang ditingkatkan yang meningkatkan kinerja model dan mempercepat kecepatan inferensi
Pipeline Pra-pelatihan yang Dioptimalkan: Menggunakan pemfilteran data multi-dimensi dan pembuatan data penalaran sintetis untuk meningkatkan kepadatan pola penalaran
Sistem Pelatihan RL Tingkat Lanjut: Menampilkan Mesin Rollout Seamless yang menyediakan pelatihan 2,29× lebih cepat dan validasi 1,96× lebih cepat melalui rollout berkelanjutan dan komputasi hadiah asinkron
Hadiah Kode Berbasis Kesulitan Uji: Menerapkan sistem penilaian terperinci untuk kasus uji dengan tingkat kesulitan yang bervariasi untuk memberikan optimasi kebijakan yang lebih efektif
Kasus Penggunaan MiMo
Pemecahan Masalah Matematika: Unggul dalam memecahkan masalah matematika kompleks, termasuk kompetisi tingkat AIME dan penilaian matematika umum
Pengembangan dan Pengujian Kode: Menangani berbagai tugas pengkodean dengan akurasi tinggi, terutama yang ditunjukkan melalui kinerja LiveCodeBench
Tugas Penalaran Umum: Berkinerja baik pada tolok ukur penalaran umum seperti GPQA Diamond dan SuperGPQA, membuatnya cocok untuk tugas analisis logis
Kelebihan
Sesuai dengan kinerja model yang lebih besar meskipun ukurannya lebih kecil (7B parameter)
Kinerja superior dalam tugas matematika dan pengkodean
Inferensi efisien melalui Prediksi Multi-Token
Ketersediaan sumber terbuka dengan berbagai varian model
Kekurangan
Memerlukan vLLM fork khusus untuk kinerja optimal
Kinerja lebih rendah pada tugas bahasa umum dibandingkan dengan tugas penalaran khusus
Verifikasi terbatas dengan mesin inferensi lainnya
Cara Menggunakan MiMo
Unduh Model: Unduh salah satu model MiMo dari Hugging Face (https://huggingface.co/XiaomiMiMo). Model yang tersedia adalah: MiMo-7B-Base, MiMo-7B-RL-Zero, MiMo-7B-SFT, dan MiMo-7B-RL
Siapkan Lingkungan: Instal dependensi yang diperlukan. Disarankan untuk menggunakan fork vLLM Xiaomi yang didasarkan pada vLLM 0.7.3 (https://github.com/XiaomiMiMo/vllm/tree/feat_mimo_mtp)
Pilih Metode Inferensi: Anda dapat menggunakan vLLM (disarankan) atau HuggingFace untuk inferensi. vLLM mendukung fitur Multiple-Token Prediction (MTP) MiMo
Untuk Inferensi vLLM: Impor pustaka yang diperlukan (vllm), inisialisasi LLM dengan jalur dan parameter model (suhu=0,6 disarankan), buat format percakapan dengan prompt sistem kosong, dan gunakan llm.chat() untuk menghasilkan respons
Untuk Inferensi HuggingFace: Impor AutoModel dan AutoTokenizer dari transformers, muat model dan tokenizer dengan trust_remote_code=True, tokenisasi input, dan gunakan model.generate() untuk membuat output
Konfigurasi Parameter: Gunakan suhu=0,6 untuk hasil terbaik. Disarankan untuk menggunakan prompt sistem kosong untuk kinerja optimal
Jalankan Inferensi: Masukkan prompt/kueri Anda dan model akan menghasilkan respons. Model ini sangat kuat dalam tugas penalaran termasuk matematika dan kode
Tangani Output: Proses teks yang dihasilkan dari output model. Untuk vLLM, akses teks melalui output.outputs[0].text. Untuk HuggingFace, gunakan tokenizer.decode() pada output
FAQ MiMo
MiMo adalah serangkaian model bahasa parameter 7B yang dikembangkan oleh Xiaomi, yang dirancang dan dilatih secara khusus untuk tugas-tugas penalaran. Seri ini mencakup model MiMo-7B-Base, MiMo-7B-RL-Zero, MiMo-7B-SFT, dan MiMo-7B-RL.
Artikel Populer

5 Generator Karakter NSFW Terbaik di Tahun 2025
May 29, 2025

Google Veo 3: Generator Video AI Pertama yang Mendukung Audio Secara Native
May 28, 2025

5 Chatbot Pacar AI NSFW Gratis Terbaik yang Perlu Anda Coba—Ulasan Nyata AIPURE
May 27, 2025

SweetAI Chat vs CrushOn.AI: Pertarungan Utama Pacar AI NSFW di Tahun 2025
May 27, 2025