MiMo

MiMo

MiMo adalah seri model bahasa 7B parameter yang dikembangkan oleh Xiaomi yang berspesialisasi dalam kemampuan penalaran matematika dan kode, mencapai kinerja yang sebanding dengan model yang lebih besar melalui strategi pra-pelatihan dan pasca-pelatihan yang inovatif.
https://github.com/XiaomiMiMo/MiMo?ref=aipure&utm_source=aipure
MiMo

Informasi Produk

Diperbarui:May 16, 2025

Apa itu MiMo

MiMo adalah serangkaian model bahasa yang dikembangkan oleh Tim LLM-Core Xiaomi yang berfokus pada peningkatan kemampuan penalaran dalam matematika dan kode. Seri ini mencakup MiMo-7B-Base (model dasar), MiMo-7B-RL (model pembelajaran penguatan), MiMo-7B-SFT (model fine-tuning yang diawasi), dan MiMo-7B-RL-Zero. Meskipun ukurannya relatif kecil yaitu 7B parameter, MiMo menunjukkan kemampuan penalaran luar biasa yang dapat menyamai atau melampaui kinerja model 32B yang jauh lebih besar dan bahkan bersaing dengan model o1-mini OpenAI.

Fitur Utama MiMo

MiMo adalah rangkaian model bahasa 7B parameter yang dikembangkan oleh Xiaomi, yang dirancang khusus untuk kemampuan penalaran yang ditingkatkan baik dalam matematika maupun kode. Ini mencakup berbagai versi (Base, SFT, RL-Zero, dan RL) yang dilatih melalui kombinasi strategi pra-pelatihan dan pasca-pelatihan, menampilkan Prediksi Multi-Token dan teknik pemrosesan data khusus. Model ini menunjukkan kinerja luar biasa yang sesuai dengan model 32B yang lebih besar dan o1-mini OpenAI, terutama dalam tugas matematika dan pengkodean.
Prediksi Multi-Token: Tujuan pelatihan yang ditingkatkan yang meningkatkan kinerja model dan mempercepat kecepatan inferensi
Pipeline Pra-pelatihan yang Dioptimalkan: Menggunakan pemfilteran data multi-dimensi dan pembuatan data penalaran sintetis untuk meningkatkan kepadatan pola penalaran
Sistem Pelatihan RL Tingkat Lanjut: Menampilkan Mesin Rollout Seamless yang menyediakan pelatihan 2,29× lebih cepat dan validasi 1,96× lebih cepat melalui rollout berkelanjutan dan komputasi hadiah asinkron
Hadiah Kode Berbasis Kesulitan Uji: Menerapkan sistem penilaian terperinci untuk kasus uji dengan tingkat kesulitan yang bervariasi untuk memberikan optimasi kebijakan yang lebih efektif

Kasus Penggunaan MiMo

Pemecahan Masalah Matematika: Unggul dalam memecahkan masalah matematika kompleks, termasuk kompetisi tingkat AIME dan penilaian matematika umum
Pengembangan dan Pengujian Kode: Menangani berbagai tugas pengkodean dengan akurasi tinggi, terutama yang ditunjukkan melalui kinerja LiveCodeBench
Tugas Penalaran Umum: Berkinerja baik pada tolok ukur penalaran umum seperti GPQA Diamond dan SuperGPQA, membuatnya cocok untuk tugas analisis logis

Kelebihan

Sesuai dengan kinerja model yang lebih besar meskipun ukurannya lebih kecil (7B parameter)
Kinerja superior dalam tugas matematika dan pengkodean
Inferensi efisien melalui Prediksi Multi-Token
Ketersediaan sumber terbuka dengan berbagai varian model

Kekurangan

Memerlukan vLLM fork khusus untuk kinerja optimal
Kinerja lebih rendah pada tugas bahasa umum dibandingkan dengan tugas penalaran khusus
Verifikasi terbatas dengan mesin inferensi lainnya

Cara Menggunakan MiMo

Unduh Model: Unduh salah satu model MiMo dari Hugging Face (https://huggingface.co/XiaomiMiMo). Model yang tersedia adalah: MiMo-7B-Base, MiMo-7B-RL-Zero, MiMo-7B-SFT, dan MiMo-7B-RL
Siapkan Lingkungan: Instal dependensi yang diperlukan. Disarankan untuk menggunakan fork vLLM Xiaomi yang didasarkan pada vLLM 0.7.3 (https://github.com/XiaomiMiMo/vllm/tree/feat_mimo_mtp)
Pilih Metode Inferensi: Anda dapat menggunakan vLLM (disarankan) atau HuggingFace untuk inferensi. vLLM mendukung fitur Multiple-Token Prediction (MTP) MiMo
Untuk Inferensi vLLM: Impor pustaka yang diperlukan (vllm), inisialisasi LLM dengan jalur dan parameter model (suhu=0,6 disarankan), buat format percakapan dengan prompt sistem kosong, dan gunakan llm.chat() untuk menghasilkan respons
Untuk Inferensi HuggingFace: Impor AutoModel dan AutoTokenizer dari transformers, muat model dan tokenizer dengan trust_remote_code=True, tokenisasi input, dan gunakan model.generate() untuk membuat output
Konfigurasi Parameter: Gunakan suhu=0,6 untuk hasil terbaik. Disarankan untuk menggunakan prompt sistem kosong untuk kinerja optimal
Jalankan Inferensi: Masukkan prompt/kueri Anda dan model akan menghasilkan respons. Model ini sangat kuat dalam tugas penalaran termasuk matematika dan kode
Tangani Output: Proses teks yang dihasilkan dari output model. Untuk vLLM, akses teks melalui output.outputs[0].text. Untuk HuggingFace, gunakan tokenizer.decode() pada output

FAQ MiMo

MiMo adalah serangkaian model bahasa parameter 7B yang dikembangkan oleh Xiaomi, yang dirancang dan dilatih secara khusus untuk tugas-tugas penalaran. Seri ini mencakup model MiMo-7B-Base, MiMo-7B-RL-Zero, MiMo-7B-SFT, dan MiMo-7B-RL.

Alat AI Terbaru Serupa dengan MiMo

Gait
Gait
Gait adalah alat kolaborasi yang mengintegrasikan generasi kode yang dibantu AI dengan kontrol versi, memungkinkan tim untuk melacak, memahami, dan membagikan konteks kode yang dihasilkan AI dengan efisien.
invoices.dev
invoices.dev
invoices.dev adalah platform penagihan otomatis yang menghasilkan faktur langsung dari komit Git pengembang, dengan kemampuan integrasi untuk layanan GitHub, Slack, Linear, dan Google.
EasyRFP
EasyRFP
EasyRFP adalah toolkit komputasi tepi yang didukung AI yang memperlancar respons RFP (Permintaan Proposal) dan memungkinkan fenotip lapangan waktu nyata melalui teknologi pembelajaran mendalam.
Cart.ai
Cart.ai
Cart.ai adalah platform layanan bertenaga AI yang menyediakan solusi otomatisasi bisnis yang komprehensif termasuk pengkodean, manajemen hubungan pelanggan, pengeditan video, pengaturan e-commerce, dan pengembangan AI kustom dengan dukungan 24/7.