Arch Cómo Usar
Arch es una puerta de enlace inteligente de Capa 7 construida sobre Envoy Proxy que proporciona manejo seguro, observabilidad robusta e integración fluida de prompts con APIs para construir agentes de IA rápidos, robustos y personalizados.
Ver másCómo Usar Arch
Instalar Prerrequisitos: Asegúrate de tener Docker (v24), Docker compose (v2.29), Python (v3.10) y Poetry (v1.8.3) instalados en tu sistema. Poetry es necesario para el desarrollo local.
Crear Entorno Virtual de Python: Crea y activa un nuevo entorno virtual de Python usando: python -m venv venv && source venv/bin/activate (o venv\Scripts\activate en Windows)
Instalar Arch CLI: Instala la herramienta CLI de Arch gateway usando pip: pip install archgw
Crear Archivo de Configuración: Crea un archivo de configuración (por ejemplo, arch_config.yaml) definiendo tus proveedores de LLM, objetivos de prompts, endpoints y otros ajustes como prompts del sistema y parámetros
Configurar Proveedores de LLM: En el archivo de configuración, configura tus proveedores de LLM (por ejemplo, OpenAI) con las claves de acceso y configuraciones de modelo apropiadas
Definir Objetivos de Prompts: Configura los objetivos de prompts en el archivo de configuración, especificando endpoints, parámetros y descripciones para cada función objetivo
Configurar Endpoints: Define los endpoints de tu aplicación en el archivo de configuración, incluyendo ajustes de conexión y tiempos de espera
Inicializar Cliente: Crea una instancia de cliente OpenAI apuntando a Arch gateway (por ejemplo, base_url='http://127.0.0.1:12000/v1') en tu código de aplicación
Realizar Llamadas a la API: Usa el cliente configurado para realizar llamadas a la API a través de Arch, que manejará el enrutamiento, la seguridad y la observabilidad
Monitorear Rendimiento: Usa las características de observabilidad integradas de Arch para monitorear métricas, trazas y registros de tus interacciones con LLM
Preguntas Frecuentes de Arch
Arch es una puerta de enlace inteligente de Capa 7 diseñada para proteger, observar y personalizar aplicaciones LLM con APIs. Está construido sobre Envoy Proxy y diseñado con LLMs específicos para un manejo seguro, una observabilidad robusta y una integración fluida de prompts con APIs.
Artículos Populares
12 Días de OpenAI Actualización de Contenido 2024
Dec 18, 2024
Google lanza Whisk: Revolucionario generador de imágenes con IA que combina tres imágenes en una
Dec 17, 2024
Google presenta el generador de imágenes por IA de próxima generación Imagen 3
Dec 17, 2024
Google presenta Gemini Gems e Imagen 3 para mejorar la creatividad
Dec 17, 2024
Ver más