如何使用 LiteLLM
安装LiteLLM: 使用pip安装LiteLLM库:pip install litellm
导入并设置环境变量: 导入litellm并设置API密钥的环境变量:import litellm, os; os.environ['OPENAI_API_KEY'] = 'your-api-key'
进行API调用: 使用completion()函数进行API调用:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}])
处理流式响应: 对于流式响应,设置stream=True:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}], stream=True)
设置错误处理: 使用try-except块和OpenAIError处理异常:try: litellm.completion(...) except OpenAIError as e: print(e)
配置回调: 设置用于日志记录的回调:litellm.success_callback = ['helicone', 'langfuse']
部署LiteLLM代理: 使用Docker部署LiteLLM代理服务器:docker run -e LITELLM_MASTER_KEY='sk-1234' ghcr.io/berriai/litellm:main
配置模型路由: 创建config.yaml文件以设置不同提供商的模型路由和API密钥
使用代理服务器: 使用OpenAI SDK或curl命令对部署的LiteLLM代理进行API调用
LiteLLM 常见问题
LiteLLM 是一个统一的 API 和代理服务器,允许开发者使用标准化的 OpenAI 兼容格式与超过 100 个不同的 LLM 提供商(如 OpenAI、Azure、Anthropic 等)进行交互。它通过提供负载均衡、花费跟踪和跨提供商的一致错误处理等功能,简化了 LLM 集成。
LiteLLM 月度流量趋势
LiteLLM 的访问量下降了 4.2%,月访问量为 332,945。尽管在一个关于构建 Gemini 驱动的 AI 创业项目推介生成器的编码指南中被提及,但由于缺乏重大更新或有竞争力的功能,可能导致了这种轻微下降。
查看历史流量
查看更多