Arch
Arch é um gateway inteligente de Camada 7 construído sobre o Envoy Proxy que fornece manuseio seguro, observabilidade robusta e integração perfeita de prompts com APIs para construir agentes de IA rápidos, robustos e personalizados.
https://github.com/katanemo/arch?ref=aipure&utm_source=aipure
Informações do Produto
Atualizado:Dec 16, 2024
O que é Arch
Arch é um gateway inteligente de prompts de código aberto projetado com LLMs construídos para lidar com tarefas críticas relacionadas ao processamento de prompts e integração de APIs. Construído pelos principais colaboradores do proxy Envoy, trata os prompts como solicitações de usuário sutis que requerem as mesmas capacidades que solicitações HTTP tradicionais. A plataforma é projetada para proteger, observar e personalizar aplicações LLM como agentes, assistentes e co-pilotos, enquanto as integra com APIs de backend.
Principais Recursos do Arch
Arch é um gateway inteligente de Camada 7 projetado para lidar com aplicações de IA/LLM, construído sobre o Envoy Proxy. Ele fornece capacidades abrangentes de gerenciamento de prompts, incluindo detecção de jailbreak, integração de API, roteamento de LLM e recursos de observabilidade. A plataforma utiliza LLMs projetados especificamente para lidar com tarefas críticas como chamada de função, extração de parâmetros e processamento seguro de prompts, enquanto oferece recursos de monitoramento e gerenciamento de tráfego baseados em padrões.
Chamada de Função Integrada: Projetado com LLMs específicos para lidar com chamadas de API rápidas e econômicas e extração de parâmetros de prompts para construir aplicações agentic e RAG
Segurança de Prompt: Centraliza as diretrizes de prompt e fornece detecção automática de tentativas de jailbreak sem exigir implementação de código personalizado
Gerenciamento Avançado de Tráfego: Gerencia chamadas de LLM com tentativas inteligentes, failover automático e conexões upstream resilientes para garantir disponibilidade contínua
Observabilidade de Nível Empresarial: Implementa o padrão W3C Trace Context para rastreamento completo de solicitações e fornece métricas abrangentes para monitorar latência, uso de tokens e taxas de erro
Casos de Uso do Arch
Previsão do Tempo com IA: Integração com serviços meteorológicos para fornecer previsões meteorológicas inteligentes por meio de processamento de linguagem natural
Automação de Agentes de Seguros: Construção de agentes de seguros automatizados que podem lidar com consultas de clientes e processar tarefas relacionadas a seguros
Assistente de Gerenciamento de Rede: Criação de co-pilotos de rede que ajudam os operadores a entender o fluxo de tráfego e gerenciar operações de rede por meio de interações em linguagem natural
Integração de API Empresarial: Conexão perfeita das capacidades de IA com APIs empresariais existentes, mantendo a segurança e a observabilidade
Vantagens
Construído sobre a tecnologia comprovada do Envoy Proxy para desempenho confiável
Recursos de segurança abrangentes com detecção de jailbreak integrada
Observabilidade baseada em padrões tornando-o pronto para empresas
Desvantagens
Possíveis problemas de visibilidade de busca devido à confusão de nomes com o Arch Linux
Requer Docker e pré-requisitos técnicos específicos para configuração
Documentação limitada e recursos comunitários como um projeto mais novo
Como Usar o Arch
Instalar Pré-requisitos: Certifique-se de que você tem Docker (v24), Docker compose (v2.29), Python (v3.10) e Poetry (v1.8.3) instalados em seu sistema. O Poetry é necessário para o desenvolvimento local.
Criar Ambiente Virtual Python: Crie e ative um novo ambiente virtual Python usando: python -m venv venv && source venv/bin/activate (ou venv\Scripts\activate no Windows)
Instalar Arch CLI: Instale a ferramenta CLI do gateway Arch usando pip: pip install archgw
Criar Arquivo de Configuração: Crie um arquivo de configuração (por exemplo, arch_config.yaml) definindo seus provedores LLM, alvos de prompts, endpoints e outras configurações como prompts do sistema e parâmetros
Configurar Provedores LLM: No arquivo de configuração, configure seus provedores LLM (por exemplo, OpenAI) com as chaves de acesso apropriadas e configurações de modelo
Definir Alvos de Prompt: Configure os alvos de prompt no arquivo de configuração, especificando endpoints, parâmetros e descrições para cada função alvo
Configurar Endpoints: Defina os endpoints da sua aplicação no arquivo de configuração, incluindo configurações de conexão e timeouts
Inicializar Cliente: Crie uma instância de cliente OpenAI apontando para o gateway Arch (por exemplo, base_url='http://127.0.0.1:12000/v1') em seu código de aplicação
Fazer Chamadas API: Use o cliente configurado para fazer chamadas API através do Arch, que lidará com roteamento, segurança e observabilidade
Monitorar Desempenho: Use os recursos de observabilidade integrados do Arch para monitorar métricas, rastros e logs para suas interações LLM
Perguntas Frequentes do Arch
Arch é um gateway inteligente de Camada 7 projetado para proteger, observar e personalizar aplicações LLM com APIs. É construído sobre o Envoy Proxy e projetado com LLMs específicos para manuseio seguro, observabilidade robusta e integração perfeita de prompts com APIs.
Postagens Oficiais
Carregando...Vídeo do Arch
Artigos Populares
12 Dias da OpenAI Atualização de Conteúdo 2024
Dec 18, 2024
Midjourney Lança Moodboards Estilo Pinterest Após Lançamento do Patchwork
Dec 17, 2024
Google Lança Whisk: Revolucionário Gerador de Imagens com IA que Combina Três Imagens em Uma
Dec 17, 2024
Google Revela Gerador de Imagens por IA de Nova Geração Imagen 3
Dec 17, 2024