LiteLLM Cách sử dụng

LiteLLM là một thư viện mã nguồn mở và máy chủ proxy cung cấp một API thống nhất để tương tác với hơn 100 mô hình ngôn ngữ lớn từ nhiều nhà cung cấp khác nhau bằng cách sử dụng định dạng OpenAI.
Xem thêm

Cách sử dụng LiteLLM

Cài đặt LiteLLM: Cài đặt thư viện LiteLLM bằng pip: pip install litellm
Nhập và thiết lập biến môi trường: Nhập litellm và thiết lập biến môi trường cho các khóa API: import litellm, os; os.environ['OPENAI_API_KEY'] = 'your-api-key'
Thực hiện cuộc gọi API: Sử dụng hàm completion() để thực hiện cuộc gọi API: response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}])
Xử lý phản hồi streaming: Đối với phản hồi streaming, thiết lập stream=True: response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}], stream=True)
Thiết lập xử lý lỗi: Sử dụng khối try-except với OpenAIError để xử lý ngoại lệ: try: litellm.completion(...) except OpenAIError as e: print(e)
Cấu hình callback: Thiết lập callback để ghi lại: litellm.success_callback = ['helicone', 'langfuse']
Triển khai LiteLLM Proxy: Để triển khai máy chủ proxy LiteLLM, sử dụng Docker: docker run -e LITELLM_MASTER_KEY='sk-1234' ghcr.io/berriai/litellm:main
Cấu hình định tuyến mô hình: Tạo tệp config.yaml để thiết lập định tuyến mô hình và các khóa API cho các nhà cung cấp khác nhau
Sử dụng máy chủ proxy: Thực hiện các cuộc gọi API đến máy chủ proxy LiteLLM đã triển khai của bạn bằng cách sử dụng SDK OpenAI hoặc lệnh curl

Câu hỏi thường gặp về LiteLLM

LiteLLM là một API thống nhất và máy chủ proxy cho phép các nhà phát triển tương tác với hơn 100 nhà cung cấp LLM khác nhau (như OpenAI, Azure, Anthropic, v.v.) bằng cách sử dụng định dạng tương thích với OpenAI tiêu chuẩn. Nó đơn giản hóa việc tích hợp LLM bằng cách cung cấp các tính năng như cân bằng tải, theo dõi chi tiêu và xử lý lỗi nhất quán giữa các nhà cung cấp.

Công cụ AI Mới nhất Tương tự LiteLLM

ModelFusion
ModelFusion
ModelFusion là một thư viện TypeScript mã nguồn mở và nền tảng AI cung cấp một API thống nhất để tích hợp nhiều mô hình AI vào các ứng dụng, hỗ trợ tạo văn bản, xử lý hình ảnh và nhiều hơn nữa.
Epsilla
Epsilla
Epsilla là một nền tảng RAG-as-a-Service một cửa để xây dựng các ứng dụng LLM sẵn sàng sản xuất kết nối với dữ liệu độc quyền, có cơ sở dữ liệu vector hiệu suất cao và các kỹ thuật truy xuất tiên tiến.
KaneAI
KaneAI
KaneAI là đại lý kiểm tra phần mềm được hỗ trợ bởi AI đầu tiên trên thế giới từ đầu đến cuối, cho phép người dùng tạo, gỡ lỗi và phát triển các bài kiểm tra bằng ngôn ngữ tự nhiên.
Jynnt
Jynnt
Jynnt là một nền tảng AI đa năng cung cấp quyền truy cập vào hơn 100 mô hình AI với giao diện hiệu quả, nhẹ nhàng và không giới hạn sử dụng.

Công cụ AI Phổ biến Giống LiteLLM

Sora
Sora
Sora là mô hình AI chuyển văn bản thành video đột phá của OpenAI có thể tạo ra các video dài một phút rất thực tế và sáng tạo từ các yêu cầu văn bản.
OpenAI
OpenAI
OpenAI là một công ty nghiên cứu trí tuệ nhân tạo hàng đầu phát triển các mô hình và công nghệ AI tiên tiến để mang lại lợi ích cho nhân loại.
Claude AI
Claude AI
Claude AI là trợ lý AI hàng đầu được xây dựng cho công việc và được huấn luyện để an toàn, chính xác và bảo mật.
Kimi Chat
Kimi Chat
Kimi Chat là một trợ lý AI được phát triển bởi Moonshot AI hỗ trợ xử lý ngữ cảnh siêu dài lên đến 2 triệu ký tự Trung Quốc, khả năng duyệt web và đồng bộ hóa đa nền tảng.