Collaborative Language Model Runner 사용법
Petals는 대형 언어 모델의 협업 추론 및 미세 조정을 가능하게 하는 오픈 소스 시스템으로, 모델 부분을 여러 사용자에게 분산합니다.
더 보기Collaborative Language Model Runner 사용 방법
Petals 설치: pip를 사용하여 Petals와 그 종속성을 설치합니다: pip install git+https://github.com/bigscience-workshop/petals
필요한 모듈 가져오기: Petals와 Transformers에서 필요한 모듈을 가져옵니다: from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
모델 선택: Petals 네트워크에서 사용할 수 있는 대형 언어 모델을 선택합니다, 예: 'meta-llama/Meta-Llama-3.1-405B-Instruct'
토크나이저 및 모델 초기화: 토크나이저 및 모델 객체를 생성합니다: tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
입력 준비: 입력 텍스트를 토큰화합니다: inputs = tokenizer(prompt, return_tensors='pt')
출력 생성: 모델을 사용하여 입력에 기반한 텍스트를 생성합니다: outputs = model.generate(**inputs, max_new_tokens=100)
출력 디코드: 생성된 토큰 ID를 다시 텍스트로 디코드합니다: generated_text = tokenizer.decode(outputs[0])
선택 사항: 자원 기여: 네트워크 확장을 돕기 위해 GPU를 공유하는 Petals 서버를 실행할 수 있습니다: python -m petals.cli.run_server model_name
Collaborative Language Model Runner 자주 묻는 질문
Petals는 사용자가 BitTorrent와 유사하게 분산 방식으로 대규모 언어 모델(100B+ 매개변수)을 공동으로 실행할 수 있도록 하는 오픈 소스 시스템입니다. 사용자가 모델의 작은 부분을 로드하고 다른 사용자와 팀을 이루어 BLOOM-176B와 같은 모델을 추론 및 미세 조정할 수 있게 합니다.
더 보기