LiteLLM 使い方

LiteLLMは、OpenAIフォーマットを使用してさまざまなプロバイダーから100以上の大規模言語モデルと対話するための統一APIを提供するオープンソースライブラリおよびプロキシサーバーです
もっと見る

LiteLLMの使い方

LiteLLMをインストールする: pipを使用してLiteLLMライブラリをインストールします: pip install litellm
インポートして環境変数を設定する: litellmをインポートし、APIキーのための環境変数を設定します: import litellm, os; os.environ['OPENAI_API_KEY'] = 'your-api-key'
APIコールを行う: completion()関数を使用してAPIコールを行います: response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}])
ストリーミングレスポンスを処理する: ストリーミングレスポンスの場合、stream=Trueを設定します: response = litellm.completion(model='gpt-3.5-turbo', messages=[{'role': 'user', 'content': 'Hello'}], stream=True)
エラーハンドリングを設定する: try-exceptブロックを使用してOpenAIErrorを処理します: try: litellm.completion(...) except OpenAIError as e: print(e)
コールバックを設定する: ロギングのためのコールバックを設定します: litellm.success_callback = ['helicone', 'langfuse']
LiteLLMプロキシをデプロイする: LiteLLMプロキシサーバーをデプロイするには、Dockerを使用します: docker run -e LITELLM_MASTER_KEY='sk-1234' ghcr.io/berriai/litellm:main
モデルルーティングを設定する: config.yamlファイルを作成して、異なるプロバイダーのためのモデルルーティングとAPIキーを設定します
プロキシサーバーを使用する: OpenAI SDKまたはcurlコマンドを使用して、デプロイされたLiteLLMプロキシにAPIコールを行います

LiteLLMのよくある質問

LiteLLMは、開発者が標準化されたOpenAI互換フォーマットを使用して、100以上の異なるLLMプロバイダー(OpenAI、Azure、Anthropicなど)と対話できる統一APIおよびプロキシサーバーです。ロードバランシング、支出追跡、プロバイダー間の一貫したエラーハンドリングなどの機能を提供することで、LLM統合を簡素化します。

LiteLLM の月間トラフィック傾向

LiteLLMは11月に172,140アクセスを達成し、4.8%の増加を示しました。2024年11月の具体的なアップデートやマーケット活動がない中、この緩やかな成長は、負荷分散フォールバックメカニズム予算管理といったプラットフォームの継続的な機能によるものと考えられます。

過去のトラフィックを表示

LiteLLMに類似した最新のAIツール

Athena AI
Athena AI
Athena AIは、ドキュメント分析、クイズ生成、フラッシュカード、インタラクティブチャット機能などを通じて、個別化された学習支援、ビジネスソリューション、ライフコーチングを提供する多用途のAI駆動プラットフォームです
Aguru AI
Aguru AI
Aguru AIは、行動追跡、異常検出、パフォーマンス最適化などの機能を備えたLLMベースのアプリケーションの包括的な監視、セキュリティ、および最適化ツールを提供するオンプレミスソフトウェアソリューションです。
GOAT AI
GOAT AI
GOAT AIは、ニュース記事、研究論文、動画などのさまざまなコンテンツタイプに対してワンクリック要約機能を提供するAI駆動のプラットフォームであり、ドメイン特有のタスクのための高度なAIエージェントオーケストレーションも提供しています。
GiGOS
GiGOS
GiGOSは、ユーザーが異なるAIモデルとインタラクションし、比較するための直感的なインターフェースを備えた、Gemini、GPT-4、Claude、Grokなどの複数の高度な言語モデルへのアクセスを提供するAIプラットフォームです