Arch Anleitung
Arch ist ein intelligentes Layer-7-Gateway, das auf Envoy Proxy basiert und eine sichere Handhabung, robuste Beobachtbarkeit und nahtlose Integration von Eingabeaufforderungen mit APIs für den Aufbau schneller, robuster und personalisierter KI-Agenten bietet.
Mehr anzeigenWie man Arch verwendet
Installiere Voraussetzungen: Stelle sicher, dass Docker (v24), Docker Compose (v2.29), Python (v3.10) und Poetry (v1.8.3) auf deinem System installiert sind. Poetry wird für die lokale Entwicklung benötigt.
Erstelle virtuelle Python-Umgebung: Erstelle und aktiviere eine neue Python-virtuelle Umgebung mit: python -m venv venv && source venv/bin/activate (oder venv\Scripts\activate unter Windows)
Installiere Arch CLI: Installiere das Arch-Gateway-CLI-Tool mit pip: pip install archgw
Erstelle Konfigurationsdatei: Erstelle eine Konfigurationsdatei (z.B. arch_config.yaml), die deine LLM-Anbieter, Eingabeaufforderungsziele, Endpunkte und andere Einstellungen wie Systemaufforderungen und Parameter definiert.
Konfiguriere LLM-Anbieter: Richte in der Konfigurationsdatei deine LLM-Anbieter (z.B. OpenAI) mit den entsprechenden Zugriffsschlüsseln und Modelleinstellungen ein.
Definiere Eingabeaufforderungsziele: Konfiguriere Eingabeaufforderungsziele in der Konfigurationsdatei, indem du Endpunkte, Parameter und Beschreibungen für jede Ziel-Funktion angibst.
Richte Endpunkte ein: Definiere deine Anwendungsendpunkte in der Konfigurationsdatei, einschließlich Verbindungseinstellungen und Zeitüberschreitungen.
Initialisiere Client: Erstelle eine OpenAI-Clientinstanz, die auf das Arch-Gateway zeigt (z.B. base_url='http://127.0.0.1:12000/v1') in deinem Anwendungscode.
Führe API-Aufrufe durch: Verwende den konfigurierten Client, um API-Aufrufe über Arch durchzuführen, das Routing, Sicherheit und Beobachtbarkeit übernimmt.
Überwache die Leistung: Nutze die integrierten Beobachtungsfunktionen von Arch, um Metriken, Traces und Protokolle für deine LLM-Interaktionen zu überwachen.
Arch FAQs
Arch ist ein intelligentes Layer-7-Gateway, das entwickelt wurde, um LLM-Anwendungen mit APIs zu schützen, zu beobachten und zu personalisieren. Es basiert auf Envoy Proxy und ist mit speziell entwickelten LLMs für eine sichere Handhabung, robuste Beobachtbarkeit und nahtlose Integration von Eingabeaufforderungen mit APIs konzipiert.
Beliebte Artikel
Apple veröffentlicht Final Cut Pro 11: KI-Videobearbeitung für Mac, iPad und iPhone
Nov 14, 2024
AI Perplexity führt Werbung ein, um seine Plattform zu revolutionieren
Nov 13, 2024
X plant kostenlose Version des KI-Chatbots Grok zur Konkurrenz mit Branchenriesen
Nov 12, 2024
Top KI-Bildgeneratoren: Ist Flux 1.1 Pro Ultra der Beste im Vergleich zu Midjourney, Recraft V3 und Ideogram
Nov 12, 2024
Mehr anzeigen