如何使用 Collaborative Language Model Runner
安裝 Petals: 使用 pip 安裝 Petals 及其依賴項:pip install git+https://github.com/bigscience-workshop/petals
導入所需模塊: 從 Petals 和 Transformers 導入必要的模塊:from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
選擇模型: 選擇 Petals 網絡上可用的大型語言模型,例如 'meta-llama/Meta-Llama-3.1-405B-Instruct'
初始化分詞器和模型: 創建分詞器和模型對象:tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
準備輸入: 對輸入文本進行分詞:inputs = tokenizer(prompt, return_tensors='pt')
生成輸出: 使用模型根據輸入生成文本:outputs = model.generate(**inputs, max_new_tokens=100)
解碼輸出: 將生成的令牌 ID 解碼回文本:generated_text = tokenizer.decode(outputs[0])
可選:貢獻資源: 為了幫助擴展網絡,您可以運行一個 Petals 服務器來共享您的 GPU:python -m petals.cli.run_server model_name
Collaborative Language Model Runner 常見問題
Petals 是一個開源系統,允許用戶以分散式方式協作運行大型語言模型(100B+ 參數),類似於 BitTorrent。它使得用戶可以通過加載模型的小部分並與其他人合作,來運行 BLOOM-176B 等模型進行推理和微調。
查看更多