
Grok 2.5 (OSS Ver.)
Grok 2.5 是 xAI 强大的开源大型语言模型,具有 314B 参数和混合专家架构,作为去年他们最好的模型在社区许可下发布。
https://huggingface.co/xai-org/grok-2?ref=producthunt&utm_source=aipure

产品信息
更新于:2025年08月26日
什么是 Grok 2.5 (OSS Ver.)
Grok 2.5 代表了 xAI 对开源 AI 的重大贡献,它是一个 500GB 的大型模型,以前是他们性能最好的模型。它基于具有 3140 亿个参数的混合专家 (MoE) 架构构建,具有 8 个专家,其中 2 个用于推理,从而在运行期间产生大约 1150 亿个活动参数。该模型保持了与其前身 Grok-1 相同的核心功能,同时根据社区许可协议提供给开发人员和研究人员。
Grok 2.5 (OSS Ver.) 的主要功能
Grok 2.5是由xAI发布的开源大型语言模型,采用专家混合(MoE)架构,总参数约为3140亿个,具有8个专家(推理时激活2个)。该模型需要大量的计算资源(8个GPU,每个GPU具有>40GB内存),并且以大约500GB的权重提供,根据Grok 2社区许可协议获得许可。
MoE架构: 利用具有3140亿参数的专家混合架构,该架构具有8个专家,其中2个在推理期间处于活动状态,从而产生1150亿个活动参数
高级推理引擎: 与SGLang推理引擎(v0.5.1+)兼容,支持fp8量化和Triton注意力后端等功能
专用聊天模板: 实现了一个经过后期训练的模型结构,需要特定的聊天模板才能实现最佳的交互和响应生成
Grok 2.5 (OSS Ver.) 的使用场景
研究与开发: 使AI研究人员和开发人员能够研究和试验大规模语言模型和MoE架构
模型微调: 作为希望通过微调开发专用AI应用程序的组织的基础模型
学术研究: 为学术机构提供研究高级AI架构及其功能的机会
优点
开源可用性允许社区访问和开发
具有重要参数计数的高级MoE架构
支持现代优化技术,如fp8量化
缺点
需要大量的计算资源(8个GPU,具有>40GB内存)
大型存储需求(500GB)
由于硬件要求,业余爱好者可访问性有限
如何使用 Grok 2.5 (OSS Ver.)
系统要求检查: 确保您有 8 个 GPU,每个 GPU 至少有 40GB 内存,因为 Grok 2 需要大量的计算资源,TP=8(张量并行)
下载模型权重: 运行命令:'hf download xai-org/grok-2 --local-dir /local/grok-2'。下载量约为 500GB,包含 42 个文件。如果在下载过程中出现错误,请重试。
安装 SGLang 推理引擎: 从 https://github.com/sgl-project/sglang/ 安装最新的 SGLang 推理引擎(版本 >= v0.5.1)
启动推理服务器: 运行命令:'python3 -m sglang.launch_server --model /local/grok-2 --tokenizer-path /local/grok-2/tokenizer.tok.json --tp 8 --quantization fp8 --attention-backend triton'
测试模型: 使用命令发送测试请求:'python3 -m sglang.test.send_one --prompt "Human: What is your name?<|separator|>\n\nAssistant:"' - 模型应响应并表明自己是 Grok
查看许可条款: 在使用该模型之前,请确保符合 Grok 2 社区许可协议
Grok 2.5 (OSS Ver.) 常见问题
Grok 2.5是xAI去年发布的最佳模型,并已开源。它是一个大规模的AI模型,权重约为500 GB。