O Mercury é o primeiro modelo de linguagem grande baseado em difusão (dLLM) em escala comercial que pode gerar texto até 10 vezes mais rápido do que os LLMs tradicionais, mantendo a saída de alta qualidade.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure
Mercury

Informações do Produto

Atualizado:Feb 28, 2026

O que é Mercury

O Mercury é um modelo de IA inovador desenvolvido pela Inception Labs que representa uma mudança fundamental dos modelos de linguagem autorregressivos tradicionais para a geração de texto baseada em difusão. Lançado em fevereiro de 2025, o Mercury e sua versão especializada em código, Mercury Coder, estão disponíveis através do Amazon Bedrock Marketplace e do Amazon SageMaker JumpStart. A família de modelos foi criada por uma equipe de pesquisadores de Stanford, UCLA e Cornell que foram pioneiros no trabalho de difusão fundamental. O Mercury foi projetado para lidar com várias tarefas, incluindo geração de código, raciocínio e aplicações de voz em tempo real.

Principais Recursos do Mercury

Mercury é um inovador Modelo de Linguagem Grande (dLLM) baseado em difusão, desenvolvido pela Inception Labs, que muda fundamentalmente a forma como os modelos de linguagem geram texto. Ao contrário dos modelos auto-regressivos tradicionais que geram texto sequencialmente, o Mercury gera vários tokens em paralelo, atingindo velocidades de mais de 1.000 tokens por segundo em GPUs NVIDIA padrão, mantendo saídas de alta qualidade. Ele oferece capacidades de nível empresarial, incluindo uma janela de contexto de 128K tokens, suporte para chamadas de ferramentas e compatibilidade com as principais plataformas de nuvem, como AWS Bedrock e Azure AI Foundry.
Geração Paralela de Tokens: Usa arquitetura baseada em difusão para gerar vários tokens simultaneamente em vez de geração sequencial, permitindo um processamento 5 a 10 vezes mais rápido do que os LLMs tradicionais
Integração com Plataformas de Nuvem: Disponível através dos principais provedores de nuvem, incluindo AWS Bedrock e Azure AI Foundry, com confiabilidade de nível empresarial e mais de 99,5% de tempo de atividade
Compatibilidade com API: Mantém a compatibilidade com a API OpenAI e suporta métodos de prompting padrão (zero-shot, few-shot, CoT), tornando-o um substituto direto para os fluxos de trabalho LLM existentes
Capacidades Avançadas de Raciocínio: Apresenta um processo de refinamento de várias etapas que detecta erros e melhora a coerência durante a geração de texto, particularmente forte em tarefas de codificação e raciocínio matemático

Casos de Uso do Mercury

Desenvolvimento de Código: Potencializa o preenchimento de código em tempo real, sugestões de tabulação inteligentes e edições rápidas de código em ambientes de desenvolvimento com latência ultrabaixa
Pesquisa Empresarial: Permite a recuperação e sumarização instantânea de dados em grandes bases de conhecimento organizacional com latência mínima
Aplicações de Voz em Tempo Real: Suporta fluxos de trabalho responsivos acionados por voz, incluindo suporte ao cliente, serviços de tradução e agentes de voz interativos
Fluxos de Trabalho Automatizados: Gerencia roteamento complexo, análises e processos de decisão em ambientes empresariais com capacidades de IA ultrarresponsivas

Vantagens

Velocidade de processamento significativamente mais rápida (mais de 1000 tokens por segundo)
Custos de inferência mais baixos em comparação com os LLMs tradicionais
Compatibilidade direta com os fluxos de trabalho LLM existentes

Desvantagens

Histórico limitado como uma nova tecnologia
Atualmente focado principalmente em codificação e aplicações empresariais
Requer hardware de GPU específico para um desempenho ideal

Como Usar o Mercury

Crie uma conta: Visite platform.inceptionlabs.ai e crie uma conta na Inception Platform ou faça login se já tiver uma
Obtenha a chave da API: Vá para a seção API Keys no painel da sua conta e crie uma nova chave de API. As novas chaves de API vêm com 10 milhões de tokens gratuitos
Escolha o método de implantação: Você pode acessar o Mercury através da integração direta da API, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart ou Azure AI Foundry, dependendo de suas necessidades
Faça chamadas à API: Use a chave da API para fazer chamadas aos endpoints da API do Mercury. A API é compatível com OpenAI e pode ser acessada através de chamadas REST ou bibliotecas de cliente OpenAI existentes
Exemplo básico de uso da API: Faça uma solicitação POST para https://api.inceptionlabs.ai/v1/chat/completions com sua chave de API no cabeçalho de Autorização e payload JSON contendo o modelo (por exemplo, \'mercury-2\') e mensagens
Configure as configurações: Opcionalmente, defina parâmetros como max_tokens e habilite a visualização de streaming/difusão definindo o parâmetro diffusing como true
Integre com ferramentas: O Mercury pode ser integrado com ferramentas e frameworks populares, incluindo LangChain, AISuite e LiteLLM para aplicações mais complexas
Monitore o uso: Acompanhe o uso de seus tokens através do painel da plataforma. Os tokens de entrada custam US$ 0,25 por 1 milhão de tokens e os tokens de saída custam US$ 0,75 por 1 milhão de tokens
Obtenha suporte: Para problemas ou perguntas, entre em contato com [email protected] ou junte-se ao canal Discord deles. Clientes corporativos podem entrar em contato com [email protected]

Perguntas Frequentes do Mercury

Mercúrio é o primeiro Modelo de Linguagem Grande (MLL) baseado em difusão disponível comercialmente, lançado pela Inception Labs em fevereiro de 2025. Ele usa uma abordagem inovadora baseada em difusão para geração de linguagem, em vez da geração auto-regressiva tradicional.

Ferramentas de IA Mais Recentes Semelhantes a Mercury

Foundry
Foundry
Contact for PricingAI Code GeneratorGame Tools
Foundry é uma plataforma versátil que existe em várias formas - como uma cadeia de ferramentas de desenvolvimento de contratos inteligentes, um software de jogos de mesa virtual e uma instalação tradicional de fundição de metais - cada uma oferecendo recursos especializados para seus respectivos domínios.
PythonConvert.com
PythonConvert.com
PythonConvert.com é uma ferramenta gratuita baseada na web que fornece tradução de código alimentada por IA entre Python e outras linguagens de programação, bem como capacidades de conversão de tipo Python.
Softgen
Softgen
Softgen.ai é uma plataforma geradora de projetos full-stack impulsionada por IA que permite aos usuários transformar suas ideias em aplicações web funcionais sem requisitos de codificação.
Micro SaaS Ideas
Micro SaaS Ideas
Ideias de Micro SaaS são soluções de software em pequena escala e focadas em nichos que visam problemas ou mercados específicos, oferecendo aos empreendedores uma maneira de construir negócios lucrativos com recursos e complexidade mínimos.