Mercury est le premier grand modèle de langage basé sur la diffusion à l'échelle commerciale (dLLM) qui peut générer du texte jusqu'à 10 fois plus rapidement que les LLM traditionnels tout en maintenant une sortie de haute qualité.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure
Mercury

Informations sur le produit

Mis à jour:Feb 28, 2026

Qu'est-ce que Mercury

Mercury est un modèle d'IA révolutionnaire développé par Inception Labs qui représente un changement fondamental des modèles de langage autorégressifs traditionnels vers la génération de texte basée sur la diffusion. Lancé en février 2025, Mercury et sa version spécialisée dans le code, Mercury Coder, sont disponibles via Amazon Bedrock Marketplace et Amazon SageMaker JumpStart. La famille de modèles a été créée par une équipe de chercheurs de Stanford, UCLA et Cornell qui ont été les pionniers des travaux fondamentaux sur la diffusion. Mercury est conçu pour gérer diverses tâches, notamment la génération de code, le raisonnement et les applications vocales en temps réel.

Caractéristiques principales de Mercury

Mercury est un modèle de langage étendu (MLE) basé sur la diffusion, développé par Inception Labs, qui change fondamentalement la façon dont les modèles de langage génèrent du texte. Contrairement aux modèles autorégressifs traditionnels qui génèrent du texte de manière séquentielle, Mercury génère plusieurs jetons en parallèle, atteignant des vitesses de plus de 1 000 jetons par seconde sur des GPU NVIDIA standard tout en maintenant des sorties de haute qualité. Il offre des capacités de niveau entreprise, notamment une fenêtre de contexte de 128 000 jetons, une prise en charge de l'appel d'outils et une compatibilité avec les principales plateformes cloud telles qu'AWS Bedrock et Azure AI Foundry.
Génération de jetons en parallèle: Utilise une architecture basée sur la diffusion pour générer plusieurs jetons simultanément au lieu d'une génération séquentielle, ce qui permet un traitement 5 à 10 fois plus rapide que les MLE traditionnels
Intégration de la plateforme cloud: Disponible via les principaux fournisseurs de cloud, notamment AWS Bedrock et Azure AI Foundry, avec une fiabilité de niveau entreprise et une disponibilité de plus de 99,5 %
Compatibilité API: Maintient la compatibilité avec l'API OpenAI et prend en charge les méthodes d'invite standard (zero-shot, few-shot, CoT), ce qui en fait un remplacement direct pour les flux de travail MLE existants
Capacités de raisonnement avancées: Comprend un processus d'affinage en plusieurs étapes qui détecte les erreurs et améliore la cohérence lors de la génération de texte, particulièrement performant dans les tâches de codage et de raisonnement mathématique

Cas d'utilisation de Mercury

Développement de code: Permet la saisie semi-automatique de code en temps réel, des suggestions d'onglets intelligentes et des modifications de code rapides dans les environnements de développement avec une latence ultra-faible
Recherche d'entreprise: Permet la récupération et la synthèse instantanées de données dans de vastes bases de connaissances organisationnelles avec une latence minimale
Applications vocales en temps réel: Prend en charge les flux de travail vocaux réactifs, y compris le support client, les services de traduction et les agents vocaux interactifs
Flux de travail automatisés: Gère le routage complexe, l'analyse et les processus de décision dans les environnements d'entreprise avec des capacités d'IA ultra-réactives

Avantages

Vitesse de traitement nettement plus rapide (plus de 1 000 jetons par seconde)
Coûts d'inférence inférieurs à ceux des MLE traditionnels
Compatibilité directe avec les flux de travail MLE existants

Inconvénients

Historique limité en tant que nouvelle technologie
Actuellement axé principalement sur le codage et les applications d'entreprise
Nécessite un matériel GPU spécifique pour des performances optimales

Comment utiliser Mercury

Créer un compte: Visitez platform.inceptionlabs.ai et créez un compte Inception Platform ou connectez-vous si vous en avez déjà un
Obtenir une clé API: Accédez à la section Clés API dans le tableau de bord de votre compte et créez une nouvelle clé API. Les nouvelles clés API sont fournies avec 10 millions de jetons gratuits
Choisir la méthode de déploiement: Vous pouvez accéder à Mercury via l'intégration directe de l'API, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart ou Azure AI Foundry en fonction de vos besoins
Effectuer des appels API: Utilisez la clé API pour effectuer des appels aux points de terminaison de l'API Mercury. L'API est compatible avec OpenAI et est accessible via des appels REST ou des bibliothèques clientes OpenAI existantes
Exemple d'utilisation de l'API de base: Effectuez une requête POST à https://api.inceptionlabs.ai/v1/chat/completions avec votre clé API dans l'en-tête d'autorisation et la charge utile JSON contenant le modèle (par exemple, \'mercury-2\') et les messages
Configurer les paramètres: Définissez éventuellement des paramètres tels que max_tokens et activez la visualisation en streaming/diffusion en définissant le paramètre de diffusion sur true
Intégrer avec des outils: Mercury peut être intégré à des outils et frameworks populaires, notamment LangChain, AISuite et LiteLLM, pour des applications plus complexes
Surveiller l'utilisation: Suivez votre utilisation de jetons via le tableau de bord de la plateforme. Les jetons d'entrée coûtent 0,25 $ par 1 million de jetons et les jetons de sortie coûtent 0,75 $ par 1 million de jetons
Obtenir de l'aide: Pour les problèmes ou les questions, contactez [email protected] ou rejoignez leur canal Discord. Les clients d'entreprise peuvent contacter [email protected]

FAQ de Mercury

Mercury est le premier grand modèle de langage (LLM) basé sur la diffusion et disponible dans le commerce, lancé par Inception Labs en février 2025. Il utilise une approche révolutionnaire de génération de langage basée sur la diffusion au lieu de la génération auto-régressive traditionnelle.

Derniers outils d'IA similaires à Mercury

Foundry
Foundry
Contact for PricingAI Code GeneratorGame Tools
Foundry est une plateforme polyvalente qui existe sous plusieurs formes - en tant qu'outil de développement de contrats intelligents, logiciel de jeux de société virtuels, et installation traditionnelle de moulage de métaux - chacune offrant des fonctionnalités spécialisées pour leurs domaines respectifs.
PythonConvert.com
PythonConvert.com
PythonConvert.com est un outil gratuit basé sur le web qui fournit une traduction de code alimentée par l'IA entre Python et d'autres langages de programmation ainsi que des capacités de conversion de type Python.
Softgen
Softgen
Softgen.ai est une plateforme génératrice de projets full-stack alimentée par l'IA qui permet aux utilisateurs de transformer leurs idées en applications web fonctionnelles sans exigences de codage.
Micro SaaS Ideas
Micro SaaS Ideas
Les idées de Micro SaaS sont des solutions logicielles à petite échelle, axées sur des niches, qui ciblent des problèmes ou des marchés spécifiques, offrant aux entrepreneurs un moyen de construire des entreprises rentables avec des ressources et une complexité minimales.