LLMWare.ai Howto
LLMWare.ai est un cadre AI open-source qui fournit une solution de bout en bout pour la construction d'applications LLM de niveau entreprise, avec des modèles de langage spécialisés et des capacités RAG conçues spécifiquement pour les industries financières, juridiques et réglementaires dans des environnements de cloud privé.
Voir plusComment utiliser LLMWare.ai
Installation: Installez LLMWare en utilisant pip : 'pip install llmware' pour une installation minimale ou 'pip install llmware[full]' pour une installation complète avec les bibliothèques couramment utilisées
Créer une bibliothèque: Créez une nouvelle bibliothèque pour servir de conteneur de votre base de connaissances en utilisant : lib = Library().create_new_library('ma_bibliothèque')
Ajouter des documents: Ajoutez vos documents (PDF, PPTX, DOCX, XLSX, TXT, etc.) à la bibliothèque pour le parsing et le découpage de texte. La bibliothèque organisera et indexera votre collection de connaissances
Choisir un modèle: Sélectionnez parmi les modèles spécialisés de LLMWare comme BLING, SLIM, DRAGON ou Industry-BERT de Hugging Face, ou apportez vos propres modèles. Les modèles varient de 1 à 7 milliards de paramètres et sont optimisés pour une utilisation sur CPU
Configurer la base de données vectorielle: Choisissez et configurez votre base de données vectorielle préférée parmi les options prises en charge, y compris FAISS, Milvus, MongoDB Atlas, Pinecone, Postgres, Qdrant, Redis, Neo4j, LanceDB ou Chroma
Construire le pipeline RAG: Utilisez le module Query pour la récupération et la classe Prompt pour l'inférence du modèle. Combinez avec votre base de connaissances pour les flux de travail RAG
Configurer les flux de travail d'agent: Pour des applications plus complexes, configurez des flux de travail d'agent multi-modèles en utilisant des modèles SLIM pour les appels de fonction et les sorties structurées
Exécuter l'inférence: Exécutez votre application LLM soit par des appels directs de modèle, soit en configurant un serveur d'inférence en utilisant la classe LLMWareInferenceServer avec Flask
Explorer les exemples: Consultez les fichiers d'exemple étendus dans le dépôt GitHub couvrant le parsing, l'incorporation, les tables personnalisées, l'inférence de modèle et les flux de travail d'agent pour en savoir plus sur les fonctionnalités avancées
Obtenir de l'aide: Rejoignez la communauté LLMWare via les discussions GitHub, le canal Discord, ou regardez des vidéos tutoriels sur leur chaîne YouTube pour des conseils supplémentaires
FAQ de LLMWare.ai
LLMWare.ai est une plateforme IA open-source qui fournit un cadre de développement basé sur LLM de niveau entreprise, des outils et des modèles finement ajustés spécifiquement conçus pour les industries financières, juridiques, de conformité et réglementaires dans des environnements de cloud privé.
Articles populaires
Claude 3.5 Haiku : Le modèle d'IA le plus rapide d'Anthropic maintenant disponible
Dec 13, 2024
Uhmegle vs Chatroulette : La Bataille des Plateformes de Chat Aléatoire
Dec 13, 2024
12 Jours d'OpenAI - Mise à jour du contenu 2024
Dec 13, 2024
La mise à jour de Gemini 2.0 de Google s'appuie sur Gemini Flash 2.0
Dec 12, 2024
Voir plus