Arch Cómo Usar
Arch es una puerta de enlace inteligente de Capa 7 construida sobre Envoy Proxy que proporciona manejo seguro, observabilidad robusta e integración fluida de prompts con APIs para construir agentes de IA rápidos, robustos y personalizados.
Ver másCómo Usar Arch
Instalar Prerrequisitos: Asegúrate de tener Docker (v24), Docker compose (v2.29), Python (v3.10) y Poetry (v1.8.3) instalados en tu sistema. Poetry es necesario para el desarrollo local.
Crear Entorno Virtual de Python: Crea y activa un nuevo entorno virtual de Python usando: python -m venv venv && source venv/bin/activate (o venv\Scripts\activate en Windows)
Instalar Arch CLI: Instala la herramienta CLI de Arch gateway usando pip: pip install archgw
Crear Archivo de Configuración: Crea un archivo de configuración (por ejemplo, arch_config.yaml) definiendo tus proveedores de LLM, objetivos de prompts, endpoints y otros ajustes como prompts del sistema y parámetros
Configurar Proveedores de LLM: En el archivo de configuración, configura tus proveedores de LLM (por ejemplo, OpenAI) con las claves de acceso y configuraciones de modelo apropiadas
Definir Objetivos de Prompts: Configura los objetivos de prompts en el archivo de configuración, especificando endpoints, parámetros y descripciones para cada función objetivo
Configurar Endpoints: Define los endpoints de tu aplicación en el archivo de configuración, incluyendo ajustes de conexión y tiempos de espera
Inicializar Cliente: Crea una instancia de cliente OpenAI apuntando a Arch gateway (por ejemplo, base_url='http://127.0.0.1:12000/v1') en tu código de aplicación
Realizar Llamadas a la API: Usa el cliente configurado para realizar llamadas a la API a través de Arch, que manejará el enrutamiento, la seguridad y la observabilidad
Monitorear Rendimiento: Usa las características de observabilidad integradas de Arch para monitorear métricas, trazas y registros de tus interacciones con LLM
Preguntas Frecuentes de Arch
Arch es una puerta de enlace inteligente de Capa 7 diseñada para proteger, observar y personalizar aplicaciones LLM con APIs. Está construido sobre Envoy Proxy y diseñado con LLMs específicos para un manejo seguro, una observabilidad robusta y una integración fluida de prompts con APIs.
Artículos Populares
Apple lanza Final Cut Pro 11: Edición de video con IA para Mac, iPad y iPhone
Nov 14, 2024
AI Perplexity introduce anuncios para revolucionar su plataforma
Nov 13, 2024
X planea lanzar una versión gratuita del chatbot de IA Grok para competir con los gigantes de la industria
Nov 12, 2024
Los Mejores Generadores de Imágenes con IA: ¿Es Flux 1.1 Pro Ultra el Mejor Comparado con Midjourney, Recraft V3 e Ideogram?
Nov 12, 2024
Ver más