LiteLLM 使用方法

LiteLLM 是一個開源庫和代理服務器,提供了一個統一的 API,用於使用 OpenAI 格式與來自各種提供商的 100 多個大型語言模型進行交互。
查看更多

如何使用 LiteLLM

安裝 LiteLLM: 使用 pip 安裝 LiteLLM 庫:pip install litellm
導入並設置環境變量: 導入 litellm 並設置 API 密鑰的環境變量:import litellm, os; os.environ['OPENAI_API_KEY'] = 'your-api-key'
進行 API 調用: 使用 completion() 函數進行 API 調用:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}])
處理流式響應: 對於流式響應,設置 stream=True:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}], stream=True)
設置錯誤處理: 使用 try-except 塊和 OpenAIError 處理異常:try: litellm.completion(...) except OpenAIError as e: print(e)
配置回調: 設置用於日誌記錄的回調:litellm.success_callback = ['helicone', 'langfuse']
部署 LiteLLM 代理: 使用 Docker 部署 LiteLLM 代理服務器:docker run -e LITELLM_MASTER_KEY='sk-1234' ghcr.io/berriai/litellm:main
配置模型路由: 創建 config.yaml 文件以設置不同提供商的模型路由和 API 密鑰
使用代理服務器: 使用 OpenAI SDK 或 curl 命令對已部署的 LiteLLM 代理進行 API 調用

LiteLLM 常見問題

LiteLLM 是一個統一的 API 和代理伺服器,允許開發人員使用標準化的 OpenAI 兼容格式與超過 100 個不同的 LLM 提供商(如 OpenAI、Azure、Anthropic 等)進行交互。它通過提供負載平衡、支出追蹤和跨提供商的一致錯誤處理等功能,簡化了 LLM 整合。

与 LiteLLM 类似的最新 AI 工具

Jynnt
Jynnt
Jynnt是一款多功能的AI平台,提供超過100種AI模型的存取,具有高效、輕量級的介面和無限制的使用。
Inkeep
Inkeep
Inkeep是一個AI驅動的搜索和支持解決方案,將您的內容轉化為智能副駕駛,即時回答用戶問題。
Hamming
Hamming
Hamming是一個AI評估和優化平台,幫助工程團隊更快地構建可靠和高品質的AI產品。
Langtrace AI
Langtrace AI
Langtrace AI 是一個開源的可觀測性工具,收集和分析追蹤和指標,以幫助監控、評估和改進 LLM 應用程序。

类似 LiteLLM 的热门 AI 工具

Sora
Sora
Sora 是 OpenAI 開創性的文字轉視頻人工智能模型,能夠從文字提示生成高度逼真和富有想像力的一分鐘視頻。
OpenAI
OpenAI
OpenAI 是一家領先的人工智能研究公司,開發先進的 AI 模型和技術以造福人類。
Offline Chat: Private AI
Offline Chat: Private AI
Offline Chat: Private AI 是一款下一代 AI 聊天機器人,完全在您的設備上運行,無需互聯網,確保隱私和安全,同時允許一般查詢和基於文件的問題。
Kimi Chat
Kimi Chat
Kimi Chat是由Moonshot AI開發的AI助手,支援高達200萬個中文字符的超長上下文處理、網頁瀏覽功能和多平台同步。