ChatGLM
ChatGLM adalah seri model bahasa besar sumber terbuka bilingual (Tionghoa-Inggris) yang dikembangkan oleh Zhipu AI dan Tsinghua KEG, menampilkan kemampuan dialog yang lancar dan ambang penerapan yang rendah.
Kunjungi Situs Web
https://chatglm.cn/?utm_source=aipure
Informasi Produk
Diperbarui:12/11/2024
Apa itu ChatGLM
ChatGLM adalah seri model bahasa besar sumber terbuka yang dirancang untuk tugas dialog, dengan versi berkisar dari 6 miliar hingga 130 miliar parameter. Dikembangkan secara bersama oleh Zhipu AI dan Grup Teknik Pengetahuan (KEG) Universitas Tsinghua, model ChatGLM dilatih pada korpus Tionghoa dan Inggris yang besar, dioptimalkan untuk tanya jawab dan interaksi percakapan. Seri ini mencakup ChatGLM-6B, ChatGLM2-6B, dan yang terbaru ChatGLM3-6B, masing-masing meningkatkan pendahulunya dengan kinerja yang lebih baik, pemahaman konteks yang lebih panjang, dan kemampuan inferensi yang lebih efisien.
Fitur Utama ChatGLM
ChatGLM adalah model bahasa dialog bersumber terbuka dwibahasa (Cina dan Inggris) yang didasarkan pada kerangka model bahasa umum (GLM). Model ini menggunakan teknologi serupa dengan ChatGPT, dioptimalkan untuk pertanyaan jawaban dan dialog dalam bahasa Cina. Dilatih pada sekitar 1T token dari korpus Cina dan Inggris, model ini menggabungkan penyetelan halus yang diawasi, bootstrapping umpan balik, dan pembelajaran penguatan dengan umpan balik manusia. Model ini tersedia dalam berbagai ukuran, dengan ChatGLM-6B sebagai versi yang lebih kecil dan lebih mudah diakses yang dapat diterapkan secara lokal pada perangkat keras konsumen.
Dukungan Dwibahasa: Dioptimalkan untuk pengolahan bahasa Cina dan Inggris, membuatnya serbaguna untuk aplikasi multibahasa.
Ambang Penerapan Rendah: Dapat diterapkan secara lokal pada kartu grafis konsumen, dengan kuantisasi INT4 hanya membutuhkan 6GB memori GPU.
Seri Model Komprehensif: Menawarkan berbagai ukuran model dan spesialisasi, termasuk model dasar, model dialog, dan model teks panjang seperti ChatGLM3-6B-32K.
Teknik Pelatihan Lanjutan: Menggunakan penyetelan halus yang diawasi, bootstrapping umpan balik, dan pembelajaran penguatan dengan umpan balik manusia untuk meningkatkan kinerja.
Sumber Terbuka: Sepenuhnya terbuka untuk penelitian akademik dan gratis untuk penggunaan komersial setelah pendaftaran, mendorong pengembangan yang didorong komunitas.
Kasus Penggunaan ChatGLM
Pengolahan Bahasa Alami: Dapat digunakan untuk berbagai tugas NLP seperti pembangkitan teks, ringkasan, dan pertanyaan-jawaban dalam bahasa Cina dan Inggris.
Chatbot dan Asisten Virtual: Ideal untuk menciptakan sistem AI percakapan yang mampu terlibat dalam dialog multi-turn.
Pembuatan Konten: Membantu dalam menghasilkan konten kreatif, artikel, dan materi tulisan lainnya dalam bahasa Cina dan Inggris.
Pembangkitan dan Bantuan Kode: Dengan model seperti CodeGeeX, dapat membantu dalam tugas pemrograman dan pembangkitan kode.
Alat Pendidikan: Dapat digunakan untuk menciptakan pengalaman belajar interaktif dan menjawab pertanyaan siswa dalam berbagai bahasa.
Kelebihan
Kemampuan dwibahasa membuatnya serbaguna untuk aplikasi Cina dan Inggris
Persyaratan perangkat keras yang rendah memungkinkan aksesibilitas luas dan penerapan lokal
Sifat sumber terbuka mendorong kontribusi dan perbaikan komunitas
Kekurangan
Ukuran model yang lebih kecil mungkin membatasi kinerja dibandingkan dengan model bahasa yang lebih besar
Potensi untuk menghasilkan informasi yang tidak akurat atau bias, seperti halnya semua model AI
Memerlukan penggunaan dan pemantauan yang hati-hati untuk mencegah penyalahgunaan atau konsekuensi tidak diinginkan
Cara Menggunakan ChatGLM
Instal paket yang diperlukan: Instal paket Python yang diperlukan dengan menjalankan: pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
Impor model dan tokenizer: Gunakan kode berikut untuk mengimpor ChatGLM:
dari transformers impor AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
Hasilkan respons: Hasilkan respons dengan memanggil metode chat:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
Lanjutkan percakapan: Untuk melanjutkan percakapan, berikan history ke panggilan berikutnya:
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)
Gunakan antarmuka web: Untuk pengalaman yang lebih ramah pengguna, kunjungi https://chatglm.cn untuk menggunakan antarmuka web model ChatGLM yang lebih besar
Unduh aplikasi seluler: Pindai kode QR di situs web ChatGLM untuk mengunduh aplikasi seluler untuk iOS atau Android
FAQ ChatGLM
ChatGLM adalah model bahasa dwibahasa terbuka berbasis kerangka kerja General Language Model (GLM). Model ini dilatih pada data bahasa Mandarin dan Inggris serta dioptimalkan untuk tugas menjawab pertanyaan dan dialog.
Postingan Resmi
Memuat...Artikel Terkait
Artikel Populer
Microsoft Ignite 2024: Memperkenalkan Azure AI Foundry Membuka Revolusi AI
Nov 21, 2024
OpenAI Meluncurkan ChatGPT Advanced Voice Mode di Web
Nov 20, 2024
Platform Chat Multi-AI AnyChat Menampilkan ChatGPT, Gemini, Claude dan Lainnya
Nov 19, 2024
Cara Menggunakan Flux 1.1 Pro Secara Gratis: Panduan Lengkap November 2024
Nov 19, 2024
Analitik Situs Web ChatGLM
Lalu Lintas & Peringkat ChatGLM
3.6M
Kunjungan Bulanan
#22191
Peringkat Global
#506
Peringkat Kategori
Tren Lalu Lintas: Jun 2024-Oct 2024
Wawasan Pengguna ChatGLM
00:02:20
Rata-rata Durasi Kunjungan
2.41
Halaman Per Kunjungan
52.47%
Tingkat Pentalan Pengguna
Wilayah Teratas ChatGLM
CN: 89.97%
US: 3.84%
HK: 2.14%
TW: 1.24%
KR: 0.52%
Others: 2.28%