Mercury es el primer modelo de lenguaje grande basado en difusión a escala comercial (dLLM) que puede generar texto hasta 10 veces más rápido que los LLM tradicionales manteniendo una salida de alta calidad.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure
Mercury

Información del Producto

Actualizado:28/02/2026

¿Qué es Mercury?

Mercury es un modelo de IA innovador desarrollado por Inception Labs que representa un cambio fundamental de los modelos de lenguaje autorregresivos tradicionales a la generación de texto basada en difusión. Lanzado en febrero de 2025, Mercury y su versión especializada en código, Mercury Coder, están disponibles a través de Amazon Bedrock Marketplace y Amazon SageMaker JumpStart. La familia de modelos fue creada por un equipo de investigadores de Stanford, UCLA y Cornell que fueron pioneros en el trabajo de difusión fundamental. Mercury está diseñado para manejar diversas tareas, incluida la generación de código, el razonamiento y las aplicaciones de voz en tiempo real.

Características Principales de Mercury

Mercury es un innovador modelo de lenguaje grande (dLLM) basado en difusión desarrollado por Inception Labs que cambia fundamentalmente la forma en que los modelos de lenguaje generan texto. A diferencia de los modelos autorregresivos tradicionales que generan texto secuencialmente, Mercury genera múltiples tokens en paralelo, alcanzando velocidades de más de 1,000 tokens por segundo en GPU NVIDIA estándar, manteniendo al mismo tiempo salidas de alta calidad. Ofrece capacidades de nivel empresarial, incluyendo una ventana de contexto de 128K tokens, soporte para llamadas a herramientas y compatibilidad con las principales plataformas en la nube como AWS Bedrock y Azure AI Foundry.
Generación paralela de tokens: Utiliza una arquitectura basada en difusión para generar múltiples tokens simultáneamente en lugar de la generación secuencial, lo que permite un procesamiento de 5 a 10 veces más rápido que los LLM tradicionales
Integración de la plataforma en la nube: Disponible a través de los principales proveedores de la nube, incluyendo AWS Bedrock y Azure AI Foundry, con fiabilidad de nivel empresarial y un tiempo de actividad del 99,5%+
Compatibilidad con la API: Mantiene la compatibilidad con la API de OpenAI y admite métodos de prompting estándar (zero-shot, few-shot, CoT), lo que la convierte en un reemplazo directo para los flujos de trabajo LLM existentes
Capacidades de razonamiento avanzadas: Presenta un proceso de refinamiento de varios pasos que detecta errores y mejora la coherencia durante la generación de texto, particularmente fuerte en tareas de codificación y razonamiento matemático

Casos de Uso de Mercury

Desarrollo de código: Potencia la finalización de código en tiempo real, las sugerencias de pestañas inteligentes y las ediciones rápidas de código en entornos de desarrollo con latencia ultrabaja
Búsqueda empresarial: Permite la recuperación y el resumen instantáneos de datos en grandes bases de conocimiento organizacionales con una latencia mínima
Aplicaciones de voz en tiempo real: Admite flujos de trabajo receptivos basados en voz, incluyendo atención al cliente, servicios de traducción y agentes de voz interactivos
Flujos de trabajo automatizados: Maneja procesos complejos de enrutamiento, análisis y decisión en entornos empresariales con capacidades de IA ultrarreactivas

Ventajas

Velocidad de procesamiento significativamente más rápida (más de 1000 tokens por segundo)
Menores costos de inferencia en comparación con los LLM tradicionales
Compatibilidad directa con los flujos de trabajo LLM existentes

Desventajas

Historial limitado como nueva tecnología
Actualmente centrado principalmente en la codificación y las aplicaciones empresariales
Requiere hardware GPU específico para un rendimiento óptimo

Cómo Usar Mercury

Crear una cuenta: Visite platform.inceptionlabs.ai y cree una cuenta de Inception Platform o inicie sesión si ya tiene una
Obtener clave API: Vaya a la sección Claves API en el panel de control de su cuenta y cree una nueva clave API. Las nuevas claves API vienen con 10 millones de tokens gratuitos
Elegir método de implementación: Puede acceder a Mercury a través de la integración directa de la API, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart o Azure AI Foundry según sus necesidades
Realizar llamadas API: Utilice la clave API para realizar llamadas a los endpoints de la API de Mercury. La API es compatible con OpenAI y se puede acceder a ella a través de llamadas REST o bibliotecas de clientes de OpenAI existentes
Ejemplo de uso básico de la API: Realice una solicitud POST a https://api.inceptionlabs.ai/v1/chat/completions con su clave API en el encabezado de autorización y la carga útil JSON que contiene el modelo (por ejemplo, \'mercury-2\') y los mensajes
Configurar ajustes: Opcionalmente, establezca parámetros como max_tokens y habilite la visualización de transmisión/difusión configurando el parámetro de difusión en verdadero
Integrar con herramientas: Mercury se puede integrar con herramientas y frameworks populares como LangChain, AISuite y LiteLLM para aplicaciones más complejas
Monitorear el uso: Realice un seguimiento del uso de sus tokens a través del panel de control de la plataforma. Los tokens de entrada cuestan $0.25 por 1 millón de tokens y los tokens de salida cuestan $0.75 por 1 millón de tokens
Obtener soporte: Para problemas o preguntas, póngase en contacto con [email protected] o únase a su canal de Discord. Los clientes empresariales pueden comunicarse con [email protected]

Preguntas Frecuentes de Mercury

Mercury es el primer modelo de lenguaje grande (MLL) basado en difusión disponible comercialmente lanzado por Inception Labs en febrero de 2025. Utiliza un enfoque innovador basado en la difusión para la generación de lenguaje en lugar de la generación autorregresiva tradicional.

Últimas herramientas de IA similares a Mercury

Foundry
Foundry
Contact for PricingAI Code GeneratorGame Tools
Foundry es una plataforma versátil que existe en múltiples formas: como una cadena de herramientas para el desarrollo de contratos inteligentes, un software de juegos de mesa virtual y una instalación tradicional de fundición de metales, cada una ofreciendo características especializadas para sus respectivos dominios.
PythonConvert.com
PythonConvert.com
PythonConvert.com es una herramienta gratuita basada en la web que proporciona traducción de código impulsada por IA entre Python y otros lenguajes de programación, así como capacidades de conversión de tipos de Python.
Softgen
Softgen
Softgen.ai es una plataforma generadora de proyectos de pila completa impulsada por IA que permite a los usuarios transformar sus ideas en aplicaciones web funcionales sin requisitos de codificación.
Micro SaaS Ideas
Micro SaaS Ideas
Las Ideas de Micro SaaS son soluciones de software pequeñas y enfocadas en nichos que abordan problemas o mercados específicos, ofreciendo a los emprendedores una forma de construir negocios rentables con recursos y complejidad mínimas.