Collaborative Language Model Runner Howto
Petals adalah sistem sumber terbuka yang memungkinkan inferensi kolaboratif dan penyempurnaan model bahasa besar dengan mendistribusikan bagian model di antara banyak pengguna.
Lihat Lebih BanyakCara Menggunakan Collaborative Language Model Runner
Instal Petals: Instal Petals dan dependensinya menggunakan pip: pip install git+https://github.com/bigscience-workshop/petals
Impor modul yang diperlukan: Impor modul yang diperlukan dari Petals dan Transformers: from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
Pilih model: Pilih model bahasa besar yang tersedia di jaringan Petals, seperti 'meta-llama/Meta-Llama-3.1-405B-Instruct'
Inisialisasi tokenizer dan model: Buat objek tokenizer dan model: tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
Siapkan input: Tokenisasi teks input Anda: inputs = tokenizer(prompt, return_tensors='pt')
Hasilkan output: Gunakan model untuk menghasilkan teks berdasarkan input: outputs = model.generate(**inputs, max_new_tokens=100)
Dekode output: Dekode ID token yang dihasilkan kembali menjadi teks: generated_text = tokenizer.decode(outputs[0])
Opsional: Sumbangkan sumber daya: Untuk membantu memperluas jaringan, Anda dapat menjalankan server Petals untuk membagikan GPU Anda: python -m petals.cli.run_server model_name
FAQ Collaborative Language Model Runner
Petals adalah sistem sumber terbuka yang memungkinkan pengguna untuk menjalankan model bahasa besar (100B+ parameter) secara kolaboratif dengan cara terdistribusi, mirip dengan BitTorrent. Ini memungkinkan menjalankan model seperti BLOOM-176B untuk inferensi dan fine-tuning dengan membiarkan pengguna memuat bagian kecil dari model dan bekerja sama dengan yang lain.
Lihat Selengkapnya