Alpie Core
Alpie Core 是在印度构建的 32B 参数 4 位量化推理模型,它通过 API 平台提供强大的 AI 功能,同时是开源的、与 OpenAI 兼容的,并且在较低端的 GPU 上高效运行。
https://playground.169pi.ai/dashboard?ref=producthunt&utm_source=aipure

产品信息
更新于:2025年12月29日
什么是 Alpie Core
Alpie Core 是由印度首屈一指的 AI 研究实验室 169Pi 开发的创新 AI 模型,该实验室由 Rajat 和 Chirag Arya 创立。它代表了印度开源 AI 的一个里程碑,是全球首批证明 4 位推理模型可以与前沿规模系统相媲美的模型之一。该模型支持 65K 上下文长度,已获得 Apache 2.0 许可,并且可以通过包括 Hugging Face、Ollama、托管 API 和 169Pi Playground 在内的多个平台访问。
Alpie Core 的主要功能
Alpie Core是由印度169Pi开发的320亿参数4位量化推理模型。它支持65K上下文长度,在Apache 2.0许可下开源,并且与OpenAI兼容。该模型通过在训练期间进行创新的4位量化,在较低端的GPU上高效运行,同时保持高性能。它可以通过多个平台访问,包括Hugging Face、Ollama、托管API和169Pi Playground。
4位量化: 使用创新的量化感知训练,以实现降低75%的内存使用率和3.2倍的更快推理速度,同时保持准确性
长上下文支持: 处理高达65K的上下文长度,并计划扩展到128K个token
多个访问点: 可通过各种平台获得,包括Hugging Face、Ollama、托管API和169Pi Playground
专业数据集训练: 在六个高质量的精选数据集(约20亿个token)上进行训练,涵盖STEM、印度推理、法律、心理学、编码和高等数学
Alpie Core 的使用场景
教育和考试准备: 在竞争性考试准备方面提供帮助,重点关注印度教育背景
企业自动化: 使企业能够将AI推理能力集成到其生产流程中
法律分析: 为法律文档和分析提供推理支持,并在法律方面接受专门培训
研究与开发: 通过强大的STEM推理能力支持学术和科学研究
优点
通过4位量化实现高效的资源利用
开源且可免费访问
在印度环境中表现出色,同时保持全球适应性
可在较低端的GPU上运行,使其更易于访问
缺点
仍处于开发的早期阶段
多模态能力有限(目前正在开发中)
可能需要进一步优化以适应特定用例
如何使用 Alpie Core
安装所需的库: 使用 pip 安装 transformers、peft 和 torch 库
导入依赖项: 导入所需的模块:来自 transformers 的 AutoModelForCausalLM、AutoTokenizer、TextStreamer;来自 peft 的 PeftModel、PeftConfig;以及 torch
加载模型配置: 使用 peft_model_id = '169Pi/Alpie-Core' 和 PeftConfig.from_pretrained() 加载 LoRA 适配器配置
加载基础模型: 使用 AutoModelForCausalLM.from_pretrained() 加载具有 float16 精度和自动设备映射的基础模型
加载分词器: 使用 AutoTokenizer.from_pretrained() 和基础模型路径加载分词器
加载 LoRA 权重: 使用 PeftModel.from_pretrained() 将 LoRA 权重加载到基础模型上
访问选项: 通过多个平台访问 Alpie Core:Hugging Face、Ollama、169Pi 的托管 API 或 169Pi Playground
Alpie Core 常见问题
Alpie Core是一个32B的推理模型,它是开源的(Apache 2.0许可证)并且与OpenAI兼容,旨在在低端GPU上高效运行。











