Arch
Arch es una puerta de enlace inteligente de Capa 7 construida sobre Envoy Proxy que proporciona manejo seguro, observabilidad robusta e integración fluida de prompts con APIs para construir agentes de IA rápidos, robustos y personalizados.
https://github.com/katanemo/arch?ref=aipure&utm_source=aipure
Información del Producto
Actualizado:16/12/2024
¿Qué es Arch?
Arch es una puerta de enlace de prompts inteligente de código abierto diseñada con LLMs construidos para manejar tareas críticas relacionadas con el procesamiento de prompts y la integración de API. Construido por los contribuyentes principales de Envoy Proxy, trata los prompts como solicitudes de usuario matizadas que requieren las mismas capacidades que las solicitudes HTTP tradicionales. La plataforma está diseñada para proteger, observar y personalizar aplicaciones LLM como agentes, asistentes y copilotos mientras las integra con APIs de backend.
Características Principales de Arch
Arch es una puerta de enlace inteligente de Capa 7 diseñada para manejar aplicaciones de IA/LLM, construida sobre Envoy Proxy. Proporciona capacidades integrales de gestión de prompts, incluyendo detección de jailbreak, integración de API, enrutamiento de LLM y características de observabilidad. La plataforma utiliza LLMs diseñados específicamente para manejar tareas críticas como llamadas a funciones, extracción de parámetros y procesamiento seguro de prompts, mientras ofrece características de monitoreo y gestión de tráfico basadas en estándares.
Llamadas a Funciones Integradas: Diseñado con LLMs específicos para manejar llamadas a API rápidas y rentables y extracción de parámetros de prompts para construir aplicaciones agenticas y RAG
Seguridad de Prompts: Centraliza las directrices de prompts y proporciona detección automática de intentos de jailbreak sin requerir implementación de código personalizado
Gestión Avanzada de Tráfico: Gestiona llamadas de LLM con reintentos inteligentes, conmutación automática por error y conexiones ascendentes resilientes para garantizar disponibilidad continua
Observabilidad de Grado Empresarial: Implementa el estándar W3C Trace Context para un seguimiento completo de solicitudes y proporciona métricas integrales para monitorear latencia, uso de tokens y tasas de error
Casos de Uso de Arch
Pronóstico del Tiempo Potenciado por IA: Integración con servicios meteorológicos para proporcionar pronósticos del tiempo inteligentes a través del procesamiento de lenguaje natural
Automatización de Agentes de Seguros: Construcción de agentes de seguros automatizados que pueden manejar consultas de clientes y procesar tareas relacionadas con seguros
Asistente de Gestión de Redes: Creación de copilotos de red que ayudan a los operadores a entender el flujo de tráfico y gestionar operaciones de red a través de interacciones en lenguaje natural
Integración de API Empresarial: Conexión sin problemas de capacidades de IA con APIs empresariales existentes mientras se mantiene la seguridad y la observabilidad
Ventajas
Construido sobre tecnología probada de Envoy Proxy para un rendimiento confiable
Características de seguridad integrales con detección de jailbreak incorporada
Observabilidad basada en estándares que lo hace listo para empresas
Desventajas
Problemas potenciales de visibilidad en búsquedas debido a la confusión de nombres con Arch Linux
Requiere Docker y requisitos técnicos específicos para la configuración
Documentación limitada y recursos comunitarios como un proyecto más nuevo
Cómo Usar Arch
Instalar Prerrequisitos: Asegúrate de tener Docker (v24), Docker compose (v2.29), Python (v3.10) y Poetry (v1.8.3) instalados en tu sistema. Poetry es necesario para el desarrollo local.
Crear Entorno Virtual de Python: Crea y activa un nuevo entorno virtual de Python usando: python -m venv venv && source venv/bin/activate (o venv\Scripts\activate en Windows)
Instalar Arch CLI: Instala la herramienta CLI de Arch gateway usando pip: pip install archgw
Crear Archivo de Configuración: Crea un archivo de configuración (por ejemplo, arch_config.yaml) definiendo tus proveedores de LLM, objetivos de prompts, endpoints y otros ajustes como prompts del sistema y parámetros
Configurar Proveedores de LLM: En el archivo de configuración, configura tus proveedores de LLM (por ejemplo, OpenAI) con las claves de acceso y configuraciones de modelo apropiadas
Definir Objetivos de Prompts: Configura los objetivos de prompts en el archivo de configuración, especificando endpoints, parámetros y descripciones para cada función objetivo
Configurar Endpoints: Define los endpoints de tu aplicación en el archivo de configuración, incluyendo ajustes de conexión y tiempos de espera
Inicializar Cliente: Crea una instancia de cliente OpenAI apuntando a Arch gateway (por ejemplo, base_url='http://127.0.0.1:12000/v1') en tu código de aplicación
Realizar Llamadas a la API: Usa el cliente configurado para realizar llamadas a la API a través de Arch, que manejará el enrutamiento, la seguridad y la observabilidad
Monitorear Rendimiento: Usa las características de observabilidad integradas de Arch para monitorear métricas, trazas y registros de tus interacciones con LLM
Preguntas Frecuentes de Arch
Arch es una puerta de enlace inteligente de Capa 7 diseñada para proteger, observar y personalizar aplicaciones LLM con APIs. Está construido sobre Envoy Proxy y diseñado con LLMs específicos para un manejo seguro, una observabilidad robusta y una integración fluida de prompts con APIs.
Publicaciones Oficiales
Cargando...Video de Arch
Artículos Populares
12 Días de OpenAI Actualización de Contenido 2024
Dec 18, 2024
Google lanza Whisk: Revolucionario generador de imágenes con IA que combina tres imágenes en una
Dec 17, 2024
Google presenta el generador de imágenes por IA de próxima generación Imagen 3
Dec 17, 2024
Google presenta Gemini Gems e Imagen 3 para mejorar la creatividad
Dec 17, 2024