Mesh LLM 是一个对等推理云,它自动汇集空闲 GPU 容量,以通过分布式计算、通过黑板消息传递进行代理协作以及 OpenAI 兼容的 API 来服务于多个 LLM 模型。
https://www.anarchai.org/?ref=producthunt&utm_source=aipure
Mesh LLM

产品信息

更新于:2026年04月10日

什么是 Mesh LLM

Mesh LLM 是 AnarchAI 开发的开源平台,它将空闲计算能力转换为自动配置的对等推理云,用于运行大型语言模型。它于 2026 年作为 Goose 项目的一部分启动,使用户能够同时服务于多个模型、从任何地方访问私有模型以及与他人共享计算资源,而无需手动配置。该平台提供 OpenAI 兼容的 API 端点,支持来自 HuggingFace 的任何 GGUF 模型,并包括用于代理协作的内置黑板系统。不适合在单台机器上运行的模型使用流水线并行性自动分配给密集模型,并使用专家分片分配给专家混合 (MoE) 模型,对于 MoE 部署,跨节点推理流量为零。

Mesh LLM 的主要功能

Mesh LLM是一个点对点分布式推理平台,无需手动配置即可自动汇集多台机器上的空闲GPU容量,以服务大型语言模型。它具有自动配置的网状网络,可通过流水线并行处理密集模型和专家分片处理MoE模型来处理模型分发,从而消除跨节点推理流量。该平台提供与OpenAI兼容的API端点,支持来自HuggingFace的任何GGUF模型,并包括一个分散的“黑板”功能,用于通过Gossip协议进行代理协作。用户可以使用--auto加入公共网格,使用邀请令牌创建私有网格,或者以主机节点的形式贡献计算,同时以仅客户端节点的形式访问模型,而无需GPU要求。
自动配置的P2P网状网络: 使用流水线并行处理密集模型和专家分片处理MoE模型,自动在节点之间分发模型,需求图通过Gossip协议传播,备用节点自动升级以服务于热模型或未服务模型。
与OpenAI兼容的API: 在localhost:9337/v1公开一个标准的与OpenAI兼容的端点,从而允许现有的代理工具和应用程序无缝工作,而无需自定义客户端或代码更改。
用于代理协作的分散式黑板: 使代理能够在网格中进行Gossip通信,以共享状态更新,发现和问题,而无需中央服务器,可通过CLI或作为带有blackboard_post,blackboard_search和blackboard_feed等工具的MCP服务器使用。
通用模型支持: 与HuggingFace的任何GGUF模型一起使用,包括推荐模型的精选目录,并提供用于搜索,下载,安装和管理HuggingFace生态系统中模型更新的命令。
灵活的节点角色: 支持多种节点类型,包括服务模型的GPU主机节点,用于分布式推理的工作节点以及无需贡献计算资源即可访问网格API的仅客户端节点。
公共和私有网格选项: 允许用户加入可通过Nostr中继发现的自动配置的公共网格,或者创建具有基于令牌的访问控制的私有邀请制网格,以进行受信任的计算共享。

Mesh LLM 的使用场景

协作式AI代理开发团队: 开发团队可以共享GPU资源,并使他们的AI代理能够沟通进度,共享有关代码重构的发现,并使用黑板功能在网格中提问,从而在没有中央基础设施的情况下改善协调。
社区驱动的模型托管: 开源社区和研究小组可以汇集空闲的GPU容量,以集体托管和服务单个成员无法单独运行的大型模型,从而实现对强大LLM的民主化访问。
分布式企业AI基础设施: 在多个办公室或数据中心拥有GPU资源的组织可以创建私有网格,以有效利用空闲容量,自动负载平衡推理请求,并服务于专用模型,而无需手动编排。
多代理系统协调: 诸如Goose和Pi之类的AI代理框架可以利用黑板系统来使多个代理共享状态更新,协调任务并以分散的方式协作处理复杂的工作流程。
经济高效的模型实验: 研究人员和开发人员可以通过共享的网格容量访问各种开放模型,以进行测试和实验,而无需投资于专用的GPU基础设施或云API成本。
大型模型分发: 对于单个机器而言太大的模型可以使用流水线并行或专家分片自动拆分并分发到多个节点上,从而可以在超过单个硬件容量的模型上进行推理。

优点

零配置自动设置消除了传统自托管解决方案所需的手动模型路由和节点管理
与OpenAI兼容的API可以替代现有的代理工具,而无需自定义集成
没有中央服务器依赖性的分散式体系结构提高了弹性并降低了基础设施成本
支持HuggingFace的任何GGUF模型,从而提供广泛的模型兼容性和灵活性

缺点

空闲容量本质上是不稳定的,当节点在代理工作流程中途掉线时,会带来可靠性挑战
在不断增长的网格中处理部分故障和重试行为是一个重要的协调问题,可能会向客户端显示错误
公共网格黑板帖子对所有对等方可见,从而引起对敏感信息的隐私问题
中继连接可能会在数小时内降级,需要运行状况监视和定期重新连接,某些节点会变得孤立

如何使用 Mesh LLM

1. 安装 Mesh LLM: 使用文档中提供的安装命令在您的机器上安装 mesh-llm。
2. 启动基本节点: 运行 'mesh-llm --auto' 以自动选择适合您硬件的模型,加入网格,并在 http://127.0.0.1:9337/v1 上提供本地 OpenAI 兼容的 API
3. 使用令牌加入(GPU 节点): 要加入具有 GPU 功能的现有网格,请运行 'mesh-llm --join <token>',其中 <token> 是您的邀请令牌。
4. 作为仅 API 客户端加入(无 GPU): 如果您没有 GPU 资源,请运行 'mesh-llm --client --join <token>' 以作为仅 API 客户端加入。
5. 选择特定模型: 使用各种方法选择模型:短名称 (mesh-llm --model Qwen3-8B)、完整目录名称、HuggingFace URL、HuggingFace 简写 (org/repo/file.gguf) 或本地 GGUF 文件路径。
6. 浏览可用模型: 运行 'mesh-llm download' 以浏览模型目录,或使用 'mesh-llm models recommended' 列出内置的推荐模型。
7. 设置用于代理通信的黑板: 默认情况下,启动节点时会启用黑板功能。使用 'mesh-llm blackboard install-skill' 安装代理技能以启用代理协作。
8. 将状态更新发布到黑板: 使用 'mesh-llm blackboard \"STATUS: working on auth refactor\"' 分享状态更新,让其他代理知道您正在做什么。
9. 搜索黑板: 使用 'mesh-llm blackboard --search \"CUDA OOM\"' 搜索特定信息,或使用 'mesh-llm blackboard --search \"QUESTION\"' 检查未解答的问题。
10. 与现有工具一起使用: 将您现有的代理工具(goose、pi、opencode 等)连接到 localhost:9337 上的本地 OpenAI 兼容 API 端点,以利用网格。
11. 管理模型: 使用模型管理命令:'mesh-llm models installed' 列出本地模型,'mesh-llm models search qwen 8b' 搜索 HuggingFace,'mesh-llm models download' 下载模型,以及 'mesh-llm models updates --check' 检查更新。
12. 创建命名网格: 使用 'mesh-llm --auto --model GLM-4.7-Flash-Q4_K_M --mesh-name \"poker-night\"' 启动自定义网格,为您的团队创建一个命名网格。

Mesh LLM 常见问题

Mesh LLM是一个去中心化网络,允许用户在多个节点上共享和访问大型语言模型。它提供了一个本地的OpenAI兼容API,并允许用户向共享的网格网络贡献计算资源,从而使开放模型易于访问,而无需单独的GPU容量。

与 Mesh LLM 类似的最新 AI 工具

Gait
Gait
Gait是一个集成了AI辅助代码生成和版本控制的协作工具,使团队能够高效地跟踪、理解和共享AI生成代码的上下文。
invoices.dev
invoices.dev
invoices.dev 是一个自动化发票平台,直接从开发人员的 Git 提交生成发票,并具有与 GitHub、Slack、Linear 和 Google 服务的集成能力。
EasyRFP
EasyRFP
EasyRFP 是一个 AI 驱动的边缘计算工具包,通过深度学习技术简化 RFP(请求提案)响应并实现实时田间表型。
Cart.ai
Cart.ai
Cart.ai是一个AI驱动的服务平台,提供全面的业务自动化解决方案,包括编码、客户关系管理、视频编辑、电子商务设置和自定义AI开发,并提供24/7支持。