Collaborative Language Model Runner 使い方
Petalsは、大規模言語モデルの共同推論と微調整を可能にするオープンソースシステムであり、モデルの部分を複数のユーザーに分散させます。
もっと見るCollaborative Language Model Runnerの使い方
Petalsをインストールする: pipを使用してPetalsとその依存関係をインストールします: pip install git+https://github.com/bigscience-workshop/petals
必要なモジュールをインポートする: PetalsとTransformersから必要なモジュールをインポートします: from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
モデルを選択する: Petalsネットワークで利用可能な大規模言語モデルを選択します。例えば、'meta-llama/Meta-Llama-3.1-405B-Instruct'
トークナイザーとモデルを初期化する: トークナイザーとモデルオブジェクトを作成します: tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
入力を準備する: 入力テキストをトークン化します: inputs = tokenizer(prompt, return_tensors='pt')
出力を生成する: モデルを使用して入力に基づいてテキストを生成します: outputs = model.generate(**inputs, max_new_tokens=100)
出力をデコードする: 生成されたトークンIDをテキストに戻します: generated_text = tokenizer.decode(outputs[0])
オプション: リソースを提供する: ネットワークを拡張するために、GPUを共有するためにPetalsサーバーを実行できます: python -m petals.cli.run_server model_name
Collaborative Language Model Runnerのよくある質問
Petalsは、ユーザーが大規模な言語モデル(100B以上のパラメータ)を分散方式で共同で実行できるオープンソースシステムです。これはBitTorrentに似ています。ユーザーがモデルの小さな部分をロードし、他のユーザーとチームを組むことで、BLOOM-176Bの推論やファインチューニングを実行できます。
もっと見る