Collaborative Language Model Runner Cómo Usar
Petals es un sistema de código abierto que permite la inferencia y el ajuste colaborativo de modelos de lenguaje grandes al distribuir partes del modelo entre múltiples usuarios.
Ver másCómo Usar Collaborative Language Model Runner
Instalar Petals: Instala Petals y sus dependencias usando pip: pip install git+https://github.com/bigscience-workshop/petals
Importar módulos requeridos: Importa los módulos necesarios de Petals y Transformers: from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
Elegir un modelo: Selecciona un modelo de lenguaje grande disponible en la red de Petals, como 'meta-llama/Meta-Llama-3.1-405B-Instruct'
Inicializar el tokenizador y el modelo: Crea los objetos del tokenizador y del modelo: tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
Preparar entrada: Tokeniza tu texto de entrada: inputs = tokenizer(prompt, return_tensors='pt')
Generar salida: Usa el modelo para generar texto basado en la entrada: outputs = model.generate(**inputs, max_new_tokens=100)
Decodificar salida: Decodifica los IDs de token generados de vuelta a texto: generated_text = tokenizer.decode(outputs[0])
Opcional: Contribuir recursos: Para ayudar a expandir la red, puedes ejecutar un servidor Petals para compartir tu GPU: python -m petals.cli.run_server model_name
Preguntas Frecuentes de Collaborative Language Model Runner
Petals es un sistema de código abierto que permite a los usuarios ejecutar modelos de lenguaje grandes (más de 100B de parámetros) de manera colaborativa y distribuida, similar a BitTorrent. Permite ejecutar modelos como BLOOM-176B para inferencia y ajuste fino al hacer que los usuarios carguen pequeñas partes del modelo y se unan a otros.
Ver más