Arch
Arch adalah gerbang Layer 7 cerdas yang dibangun di atas Envoy Proxy yang menyediakan penanganan yang aman, observabilitas yang kuat, dan integrasi yang mulus dari prompt dengan API untuk membangun agen AI yang cepat, kuat, dan dipersonalisasi.
https://github.com/katanemo/arch?ref=aipure&utm_source=aipure
Informasi Produk
Diperbarui:Dec 16, 2024
Apa itu Arch
Arch adalah gerbang prompt cerdas sumber terbuka yang dirancang dengan LLM yang dibangun khusus untuk menangani tugas-tugas kritis terkait pemrosesan prompt dan integrasi API. Dibangun oleh kontributor inti dari proxy Envoy, ini memperlakukan prompt sebagai permintaan pengguna yang bernuansa yang memerlukan kemampuan yang sama seperti permintaan HTTP tradisional. Platform ini dirancang untuk melindungi, mengamati, dan mempersonalisasi aplikasi LLM seperti agen, asisten, dan co-pilot sambil mengintegrasikannya dengan API backend.
Fitur Utama Arch
Arch adalah gateway Layer 7 cerdas yang dirancang untuk menangani aplikasi AI/LLM, dibangun di atas Envoy Proxy. Ini menyediakan kemampuan manajemen prompt yang komprehensif termasuk deteksi jailbreak, integrasi API, routing LLM, dan fitur observabilitas. Platform ini menggunakan LLM yang dibangun khusus untuk menangani tugas-tugas kritis seperti pemanggilan fungsi, ekstraksi parameter, dan pemrosesan prompt yang aman, sambil menawarkan fitur pemantauan dan manajemen lalu lintas berbasis standar.
Pemanggilan Fungsi Terintegrasi: Dirancang dengan LLM yang dibangun khusus untuk menangani pemanggilan API yang cepat dan hemat biaya serta ekstraksi parameter dari prompt untuk membangun aplikasi agentic dan RAG
Keamanan Prompt: Memusatkan pengaman prompt dan menyediakan deteksi upaya jailbreak otomatis tanpa memerlukan implementasi kode kustom
Manajemen Lalu Lintas Lanjutan: Mengelola panggilan LLM dengan pengulangan cerdas, failover otomatis, dan koneksi hulu yang tangguh untuk memastikan ketersediaan yang terus menerus
Observabilitas Tingkat Perusahaan: Mengimplementasikan standar W3C Trace Context untuk pelacakan permintaan yang lengkap dan menyediakan metrik komprehensif untuk memantau latensi, penggunaan token, dan tingkat kesalahan
Kasus Penggunaan Arch
Peramalan Cuaca Berbasis AI: Integrasi dengan layanan cuaca untuk memberikan peramalan cuaca cerdas melalui pemrosesan bahasa alami
Automasi Agen Asuransi: Membangun agen asuransi otomatis yang dapat menangani pertanyaan pelanggan dan memproses tugas terkait asuransi
Asisten Manajemen Jaringan: Membuat co-pilot jaringan yang membantu operator memahami aliran lalu lintas dan mengelola operasi jaringan melalui interaksi bahasa alami
Integrasi API Perusahaan: Menghubungkan kemampuan AI dengan API perusahaan yang ada secara mulus sambil menjaga keamanan dan observabilitas
Kelebihan
Dibangun di atas teknologi Envoy Proxy yang terbukti untuk kinerja yang andal
Fitur keamanan komprehensif dengan deteksi jailbreak terintegrasi
Observabilitas berbasis standar menjadikannya siap untuk perusahaan
Kekurangan
Masalah visibilitas pencarian potensial karena kebingungan nama dengan Arch Linux
Memerlukan Docker dan prasyarat teknis tertentu untuk pengaturan
Dokumentasi dan sumber daya komunitas terbatas sebagai proyek yang lebih baru
Cara Menggunakan Arch
Instal Prasyarat: Pastikan Anda telah menginstal Docker (v24), Docker compose (v2.29), Python (v3.10), dan Poetry (v1.8.3) di sistem Anda. Poetry diperlukan untuk pengembangan lokal.
Buat Lingkungan Virtual Python: Buat dan aktifkan lingkungan virtual Python baru menggunakan: python -m venv venv && source venv/bin/activate (atau venv\Scripts\activate di Windows)
Instal Arch CLI: Instal alat CLI gerbang Arch menggunakan pip: pip install archgw
Buat File Konfigurasi: Buat file konfigurasi (misalnya, arch_config.yaml) yang mendefinisikan penyedia LLM Anda, target prompt, endpoint, dan pengaturan lain seperti prompt sistem dan parameter
Konfigurasi Penyedia LLM: Dalam file konfigurasi, atur penyedia LLM Anda (misalnya, OpenAI) dengan kunci akses dan pengaturan model yang sesuai
Tentukan Target Prompt: Konfigurasi target prompt dalam file konfigurasi, menentukan endpoint, parameter, dan deskripsi untuk setiap fungsi target
Siapkan Endpoint: Tentukan endpoint aplikasi Anda dalam file konfigurasi, termasuk pengaturan koneksi dan batas waktu
Inisialisasi Klien: Buat instance klien OpenAI yang mengarah ke gerbang Arch (misalnya, base_url='http://127.0.0.1:12000/v1') dalam kode aplikasi Anda
Lakukan Panggilan API: Gunakan klien yang telah dikonfigurasi untuk melakukan panggilan API melalui Arch, yang akan menangani pengalihan, keamanan, dan observabilitas
Pantau Kinerja: Gunakan fitur observabilitas bawaan Arch untuk memantau metrik, jejak, dan log untuk interaksi LLM Anda
FAQ Arch
Arch adalah gateway Layer 7 yang cerdas dirancang untuk melindungi, mengamati, dan mempersonalisasi aplikasi LLM dengan API. Ini dibangun di atas Envoy Proxy dan dirancang dengan LLM yang dibangun khusus untuk penanganan yang aman, observabilitas yang kuat, dan integrasi yang mulus dari prompt dengan API.
Postingan Resmi
Memuat...Video Arch
Artikel Populer
12 Hari Pembaruan Konten OpenAI 2024
Dec 18, 2024
Midjourney Meluncurkan Moodboard Mirip Pinterest Setelah Rilis Patchwork
Dec 17, 2024
Google Memperkenalkan Generator Gambar AI Generasi Terbaru Imagen 3
Dec 17, 2024
Google Memperkenalkan Gemini Gems dan Imagen 3 untuk Meningkatkan Kreativitas
Dec 17, 2024