Collaborative Language Model Runner
Petals 是一个开源系统,通过在多个用户之间分布模型部分,实现大型语言模型的协作推理和微调。
https://petals.ml/?utm_source=aipure
产品信息
更新于:2024年12月16日
什么是 Collaborative Language Model Runner
Petals 是一个创新框架,允许用户协作运行和微调超过 1000 亿参数的大型语言模型 (LLMs)。作为 BigScience 项目的一部分开发,Petals 旨在通过创建一个去中心化网络,让用户贡献其计算资源,从而使强大的 LLMs 如 BLOOM-176B 的访问民主化。该系统克服了通常阻止个别研究人员使用如此庞大模型的硬件限制,使先进的 NLP 能力更广泛地可及。
Collaborative Language Model Runner 的主要功能
Petals 是一个开源的去中心化系统,它使得具有超过 1000 亿参数的大型语言模型(LLMs)的协作推理和微调成为可能。它允许用户通过仅在本地加载一小部分模型并与提供其余部分的其他用户合作来运行这些模型,从而使 LLMs 在没有高端硬件要求的情况下也能访问。
分布式模型执行: 通过在 BitTorrent 风格的网络中将大型语言模型拆分到多台机器上来运行它们。
灵活的 API: 提供基于 PyTorch 的 API,允许自定义微调、采样方法和访问模型内部。
高效推理: 使推理速度比传统的卸载技术快 10 倍。
协作微调: 允许用户使用分布式资源协作微调大型模型。
Collaborative Language Model Runner 的使用场景
研究和实验: 使研究人员能够在没有昂贵硬件的情况下实验大型语言模型。
交互式 AI 应用: 支持构建交互式 AI 应用,如聊天机器人,减少延迟。
民主化的 AI 访问: 使强大的语言模型对更广泛的用户和组织可访问。
自定义模型适配: 允许协作使用分布式资源对大型模型进行特定领域或任务的微调。
优点
降低使用大型语言模型的硬件成本
支持灵活的研究和实验
与卸载相比提高了推理速度
缺点
依赖社区参与和资源共享
处理敏感数据时可能存在隐私问题
性能取决于网络条件和可用对等点
如何使用 Collaborative Language Model Runner
安装 Petals: 使用 pip 安装 Petals 及其依赖项:pip install git+https://github.com/bigscience-workshop/petals
导入所需模块: 从 Petals 和 Transformers 导入必要的模块:from transformers import AutoTokenizer; from petals import AutoDistributedModelForCausalLM
选择模型: 选择 Petals 网络上可用的大型语言模型,例如 'meta-llama/Meta-Llama-3.1-405B-Instruct'
初始化分词器和模型: 创建分词器和模型对象:tokenizer = AutoTokenizer.from_pretrained(model_name); model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
准备输入: 对输入文本进行分词:inputs = tokenizer(prompt, return_tensors='pt')
生成输出: 使用模型基于输入生成文本:outputs = model.generate(**inputs, max_new_tokens=100)
解码输出: 将生成的令牌 ID 解码回文本:generated_text = tokenizer.decode(outputs[0])
可选:贡献资源: 为了帮助扩展网络,您可以运行一个 Petals 服务器来共享您的 GPU:python -m petals.cli.run_server model_name
Collaborative Language Model Runner 常见问题
Petals 是一个开源系统,允许用户以分布式方式协作运行大型语言模型(100B+参数),类似于 BitTorrent。它使得用户可以通过加载模型的小部分并与他人合作,来运行 BLOOM-176B 等模型的推理和微调。
Collaborative Language Model Runner 网站分析
Collaborative Language Model Runner 流量和排名
0
每月访问量
-
全球排名
-
类别排名
流量趋势:May 2024-Nov 2024
Collaborative Language Model Runner 用户洞察
-
平均访问时长
0
每次访问页数
0%
用户跳出率
Collaborative Language Model Runner 的热门地区
Others: 100%