如何使用 LiteLLM
安装LiteLLM: 使用pip安装LiteLLM库:pip install litellm
导入并设置环境变量: 导入litellm并设置API密钥的环境变量:import litellm, os; os.environ['OPENAI_API_KEY'] = 'your-api-key'
进行API调用: 使用completion()函数进行API调用:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}])
处理流式响应: 对于流式响应,设置stream=True:response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}], stream=True)
设置错误处理: 使用try-except块和OpenAIError处理异常:try: litellm.completion(...) except OpenAIError as e: print(e)
配置回调: 设置用于日志记录的回调:litellm.success_callback = ['helicone', 'langfuse']
部署LiteLLM代理: 使用Docker部署LiteLLM代理服务器:docker run -e LITELLM_MASTER_KEY='sk-1234' ghcr.io/berriai/litellm:main
配置模型路由: 创建config.yaml文件以设置不同提供商的模型路由和API密钥
使用代理服务器: 使用OpenAI SDK或curl命令对部署的LiteLLM代理进行API调用
LiteLLM 常见问题
LiteLLM 是一个统一的 API 和代理服务器,允许开发者使用标准化的 OpenAI 兼容格式与超过 100 个不同的 LLM 提供商(如 OpenAI、Azure、Anthropic 等)进行交互。它通过提供负载均衡、花费跟踪和跨提供商的一致错误处理等功能,简化了 LLM 集成。
LiteLLM 月度流量趋势
LiteLLM 在11月份达到了 172,140 访问量,显示出 4.8% 的增长。在2024年11月没有特定的更新或市场活动的情况下,这种小幅增长很可能归功于平台现有的功能,如 负载均衡、故障转移机制和 预算管理。
查看历史流量
查看更多