Alpie Core
Alpie Core 是一個在印度構建的 32B 參數 4 位量化推理模型,它通過 API 平台提供強大的 AI 功能,同時具有開源、與 OpenAI 兼容且在低端 GPU 上高效。
https://playground.169pi.ai/dashboard?ref=producthunt&utm_source=aipure

產品資訊
更新時間:2025年12月29日
什麼是 Alpie Core
Alpie Core 是由印度頂級 AI 研究實驗室 169Pi 開發的創新 AI 模型,該實驗室由 Rajat 和 Chirag Arya 創立。它代表了來自印度的開源 AI 的一個里程碑,是全球首批證明 4 位推理模型可以與前沿規模系統相媲美的模型之一。該模型支持 65K 上下文長度,已獲得 Apache 2.0 許可,並且可以通過多個平台訪問,包括 Hugging Face、Ollama、託管 API 和 169Pi Playground。
Alpie Core 的主要功能
Alpie Core是由印度169Pi開發的32B參數4位元量化推理模型。它支援65K上下文長度,在Apache 2.0許可證下開源,並且與OpenAI相容。該模型通過在訓練期間進行創新的4位元量化,在較低端的GPU上高效運行,同時保持高性能。它可通過多個平臺訪問,包括Hugging Face、Ollama、託管API和169Pi Playground。
4位元量化: 使用創新的量化感知訓練,實現降低75%的記憶體使用量和3.2倍的更快推理速度,同時保持準確性
長上下文支持: 處理高達65K的上下文長度,並計劃擴展到128K個token
多個訪問點: 可通過各種平臺訪問,包括Hugging Face、Ollama、託管API和169Pi Playground
專業數據集訓練: 在六個高質量精選數據集(約20億個token)上進行訓練,涵蓋STEM、印度推理、法律、心理學、編碼和高等數學
Alpie Core 的使用案例
教育和考試準備: 在競爭性考試準備方面提供幫助,重點關注印度教育背景
企業自動化: 使企業能夠將AI推理能力整合到其生產流程中
法律分析: 為法律文檔和分析提供推理支持,並接受過法律方面的專門培訓
研究與開發: 通過強大的STEM推理能力支持學術和科學研究
優點
通過4位元量化實現高效的資源利用
開源且可免費訪問
在印度背景下表現出色,同時保持全球適應性
可在較低端的GPU上運行,使其更易於訪問
缺點
仍處於早期開發階段
多模態能力有限(目前正在開發中)
可能需要針對特定用例進行進一步優化
如何使用 Alpie Core
安裝所需的庫: 使用 pip 安裝 transformers、peft 和 torch 庫
導入依賴項: 導入所需的模塊:來自 transformers 的 AutoModelForCausalLM、AutoTokenizer、TextStreamer;來自 peft 的 PeftModel、PeftConfig;以及 torch
加載模型配置: 使用 peft_model_id = \'169Pi/Alpie-Core\' 和 PeftConfig.from_pretrained() 加載 LoRA 適配器配置
加載基礎模型: 使用 AutoModelForCausalLM.from_pretrained() 加載具有 float16 精度和自動設備映射的基礎模型
加載 Tokenizer: 使用 AutoTokenizer.from_pretrained() 加載具有基礎模型路徑的 tokenizer
加載 LoRA 權重: 使用 PeftModel.from_pretrained() 將 LoRA 權重加載到基礎模型上
訪問選項: 通過多個平台訪問 Alpie Core:Hugging Face、Ollama、169Pi 的託管 API 或 169Pi Playground
Alpie Core 常見問題
Alpie Core 是一個 32B 推理模型,它是開源的(Apache 2.0 許可證)且與 OpenAI 兼容,旨在在較低端的 GPU 上高效運行。











