
Mercury
Mercury est le premier grand modèle de langage basé sur la diffusion à l'échelle commerciale (dLLM) qui peut générer du texte jusqu'à 10 fois plus rapidement que les LLM traditionnels tout en maintenant une sortie de haute qualité.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure

Informations sur le produit
Mis à jour:Feb 28, 2026
Qu'est-ce que Mercury
Mercury est un modèle d'IA révolutionnaire développé par Inception Labs qui représente un changement fondamental des modèles de langage autorégressifs traditionnels vers la génération de texte basée sur la diffusion. Lancé en février 2025, Mercury et sa version spécialisée dans le code, Mercury Coder, sont disponibles via Amazon Bedrock Marketplace et Amazon SageMaker JumpStart. La famille de modèles a été créée par une équipe de chercheurs de Stanford, UCLA et Cornell qui ont été les pionniers des travaux fondamentaux sur la diffusion. Mercury est conçu pour gérer diverses tâches, notamment la génération de code, le raisonnement et les applications vocales en temps réel.
Caractéristiques principales de Mercury
Mercury est un modèle de langage étendu (MLE) basé sur la diffusion, développé par Inception Labs, qui change fondamentalement la façon dont les modèles de langage génèrent du texte. Contrairement aux modèles autorégressifs traditionnels qui génèrent du texte de manière séquentielle, Mercury génère plusieurs jetons en parallèle, atteignant des vitesses de plus de 1 000 jetons par seconde sur des GPU NVIDIA standard tout en maintenant des sorties de haute qualité. Il offre des capacités de niveau entreprise, notamment une fenêtre de contexte de 128 000 jetons, une prise en charge de l'appel d'outils et une compatibilité avec les principales plateformes cloud telles qu'AWS Bedrock et Azure AI Foundry.
Génération de jetons en parallèle: Utilise une architecture basée sur la diffusion pour générer plusieurs jetons simultanément au lieu d'une génération séquentielle, ce qui permet un traitement 5 à 10 fois plus rapide que les MLE traditionnels
Intégration de la plateforme cloud: Disponible via les principaux fournisseurs de cloud, notamment AWS Bedrock et Azure AI Foundry, avec une fiabilité de niveau entreprise et une disponibilité de plus de 99,5 %
Compatibilité API: Maintient la compatibilité avec l'API OpenAI et prend en charge les méthodes d'invite standard (zero-shot, few-shot, CoT), ce qui en fait un remplacement direct pour les flux de travail MLE existants
Capacités de raisonnement avancées: Comprend un processus d'affinage en plusieurs étapes qui détecte les erreurs et améliore la cohérence lors de la génération de texte, particulièrement performant dans les tâches de codage et de raisonnement mathématique
Cas d'utilisation de Mercury
Développement de code: Permet la saisie semi-automatique de code en temps réel, des suggestions d'onglets intelligentes et des modifications de code rapides dans les environnements de développement avec une latence ultra-faible
Recherche d'entreprise: Permet la récupération et la synthèse instantanées de données dans de vastes bases de connaissances organisationnelles avec une latence minimale
Applications vocales en temps réel: Prend en charge les flux de travail vocaux réactifs, y compris le support client, les services de traduction et les agents vocaux interactifs
Flux de travail automatisés: Gère le routage complexe, l'analyse et les processus de décision dans les environnements d'entreprise avec des capacités d'IA ultra-réactives
Avantages
Vitesse de traitement nettement plus rapide (plus de 1 000 jetons par seconde)
Coûts d'inférence inférieurs à ceux des MLE traditionnels
Compatibilité directe avec les flux de travail MLE existants
Inconvénients
Historique limité en tant que nouvelle technologie
Actuellement axé principalement sur le codage et les applications d'entreprise
Nécessite un matériel GPU spécifique pour des performances optimales
Comment utiliser Mercury
Créer un compte: Visitez platform.inceptionlabs.ai et créez un compte Inception Platform ou connectez-vous si vous en avez déjà un
Obtenir une clé API: Accédez à la section Clés API dans le tableau de bord de votre compte et créez une nouvelle clé API. Les nouvelles clés API sont fournies avec 10 millions de jetons gratuits
Choisir la méthode de déploiement: Vous pouvez accéder à Mercury via l'intégration directe de l'API, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart ou Azure AI Foundry en fonction de vos besoins
Effectuer des appels API: Utilisez la clé API pour effectuer des appels aux points de terminaison de l'API Mercury. L'API est compatible avec OpenAI et est accessible via des appels REST ou des bibliothèques clientes OpenAI existantes
Exemple d'utilisation de l'API de base: Effectuez une requête POST à https://api.inceptionlabs.ai/v1/chat/completions avec votre clé API dans l'en-tête d'autorisation et la charge utile JSON contenant le modèle (par exemple, \'mercury-2\') et les messages
Configurer les paramètres: Définissez éventuellement des paramètres tels que max_tokens et activez la visualisation en streaming/diffusion en définissant le paramètre de diffusion sur true
Intégrer avec des outils: Mercury peut être intégré à des outils et frameworks populaires, notamment LangChain, AISuite et LiteLLM, pour des applications plus complexes
Surveiller l'utilisation: Suivez votre utilisation de jetons via le tableau de bord de la plateforme. Les jetons d'entrée coûtent 0,25 $ par 1 million de jetons et les jetons de sortie coûtent 0,75 $ par 1 million de jetons
Obtenir de l'aide: Pour les problèmes ou les questions, contactez [email protected] ou rejoignez leur canal Discord. Les clients d'entreprise peuvent contacter [email protected]
FAQ de Mercury
Mercury est le premier grand modèle de langage (LLM) basé sur la diffusion et disponible dans le commerce, lancé par Inception Labs en février 2025. Il utilise une approche révolutionnaire de génération de langage basée sur la diffusion au lieu de la génération auto-régressive traditionnelle.
Vidéo de Mercury
Articles populaires

Outils d'IA les plus populaires de 2025 | Mise à jour 2026 par AIPURE
Feb 10, 2026

Moltbook AI : Le premier réseau social d'agents d'IA pure de 2026
Feb 5, 2026

ThumbnailCreator : L'outil d'IA qui résout votre stress lié aux miniatures YouTube (2026)
Jan 16, 2026

Lunettes IA Intelligentes 2026 : Une perspective axée sur les logiciels du marché de l'IA portable
Jan 7, 2026







