
Mercury
Mercury è il primo modello linguistico di grandi dimensioni (dLLM) basato sulla diffusione su scala commerciale in grado di generare testo fino a 10 volte più velocemente dei tradizionali LLM mantenendo un output di alta qualità.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure

Informazioni sul Prodotto
Aggiornato:Feb 28, 2026
Cos'è Mercury
Mercury è un modello di intelligenza artificiale rivoluzionario sviluppato da Inception Labs che rappresenta un cambiamento fondamentale dai tradizionali modelli linguistici autoregressivi alla generazione di testo basata sulla diffusione. Lanciato a febbraio 2025, Mercury e la sua versione specializzata per il codice Mercury Coder sono disponibili tramite Amazon Bedrock Marketplace e Amazon SageMaker JumpStart. La famiglia di modelli è stata creata da un team di ricercatori di Stanford, UCLA e Cornell che hanno fatto da pionieri nel lavoro di diffusione fondamentale. Mercury è progettato per gestire varie attività tra cui la generazione di codice, il ragionamento e le applicazioni vocali in tempo reale.
Caratteristiche principali di Mercury
Mercury è un modello linguistico di grandi dimensioni (dLLM) basato sulla diffusione, rivoluzionario, sviluppato da Inception Labs, che cambia radicalmente il modo in cui i modelli linguistici generano testo. A differenza dei modelli autoregressivi tradizionali che generano testo in sequenza, Mercury genera più token in parallelo, raggiungendo velocità superiori a 1.000 token al secondo su GPU NVIDIA standard, pur mantenendo output di alta qualità. Offre funzionalità di livello enterprise, tra cui una finestra di contesto di 128K token, supporto per la chiamata di strumenti e compatibilità con le principali piattaforme cloud come AWS Bedrock e Azure AI Foundry.
Generazione parallela di token: Utilizza un'architettura basata sulla diffusione per generare più token simultaneamente invece della generazione sequenziale, consentendo un'elaborazione 5-10 volte più veloce rispetto ai LLM tradizionali
Integrazione della piattaforma cloud: Disponibile tramite i principali fornitori di cloud, tra cui AWS Bedrock e Azure AI Foundry, con affidabilità di livello enterprise e uptime del 99,5%+
Compatibilità API: Mantiene la compatibilità con l'API OpenAI e supporta i metodi di prompting standard (zero-shot, few-shot, CoT), rendendolo un sostituto immediato per i flussi di lavoro LLM esistenti
Funzionalità di ragionamento avanzate: Presenta un processo di perfezionamento multi-step che rileva gli errori e migliora la coerenza durante la generazione del testo, particolarmente efficace nelle attività di codifica e ragionamento matematico
Casi d'uso di Mercury
Sviluppo di codice: Alimenta il completamento del codice in tempo reale, i suggerimenti intelligenti per le tabulazioni e le modifiche rapide del codice in ambienti di sviluppo con latenza ultra-bassa
Ricerca aziendale: Consente il recupero e la sintesi istantanei dei dati attraverso ampie basi di conoscenza organizzative con latenza minima
Applicazioni vocali in tempo reale: Supporta flussi di lavoro reattivi basati sulla voce, tra cui assistenza clienti, servizi di traduzione e agenti vocali interattivi
Flussi di lavoro automatizzati: Gestisce complessi processi di routing, analisi e decisione in ambienti aziendali con funzionalità di intelligenza artificiale ultra-reattive
Vantaggi
Velocità di elaborazione significativamente più elevata (oltre 1000 token al secondo)
Costi di inferenza inferiori rispetto ai LLM tradizionali
Compatibilità immediata con i flussi di lavoro LLM esistenti
Svantaggi
Storico limitato come nuova tecnologia
Attualmente focalizzato principalmente sulla codifica e sulle applicazioni aziendali
Richiede hardware GPU specifico per prestazioni ottimali
Come usare Mercury
Crea un account: Visita platform.inceptionlabs.ai e crea un account Inception Platform o accedi se ne hai già uno
Ottieni la chiave API: Vai alla sezione Chiavi API nel dashboard del tuo account e crea una nuova chiave API. Le nuove chiavi API vengono fornite con 10 milioni di token gratuiti
Scegli il metodo di implementazione: Puoi accedere a Mercury tramite integrazione API diretta, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart o Azure AI Foundry a seconda delle tue esigenze
Effettua chiamate API: Usa la chiave API per effettuare chiamate agli endpoint API di Mercury. L'API è compatibile con OpenAI e può essere accessibile tramite chiamate REST o librerie client OpenAI esistenti
Esempio di utilizzo API di base: Effettua una richiesta POST a https://api.inceptionlabs.ai/v1/chat/completions con la tua chiave API nell'intestazione di autorizzazione e il payload JSON contenente il modello (ad es. 'mercury-2') e i messaggi
Configura le impostazioni: Facoltativamente, imposta parametri come max_tokens e abilita la visualizzazione in streaming/diffusione impostando il parametro di diffusione su true
Integra con gli strumenti: Mercury può essere integrato con strumenti e framework popolari tra cui LangChain, AISuite e LiteLLM per applicazioni più complesse
Monitora l'utilizzo: Tieni traccia del tuo utilizzo di token tramite il dashboard della piattaforma. I token di input costano $0,25 per 1 milione di token e i token di output costano $0,75 per 1 milione di token
Ottieni supporto: Per problemi o domande, contatta [email protected] o unisciti al loro canale Discord. I clienti aziendali possono contattare [email protected]
FAQ di Mercury
Mercury è il primo modello linguistico di grandi dimensioni (LLM) basato sulla diffusione disponibile in commercio (dLLM) lanciato da Inception Labs a febbraio 2025. Utilizza un approccio rivoluzionario basato sulla diffusione per la generazione del linguaggio invece della tradizionale generazione auto-regressiva.
Video di Mercury
Articoli Popolari

Strumenti di IA più popolari del 2025 | Aggiornamento 2026 di AIPURE
Feb 10, 2026

Moltbook AI: la prima rete sociale di agenti AI puri del 2026
Feb 5, 2026

ThumbnailCreator: Lo strumento di intelligenza artificiale che risolve lo stress delle miniature di YouTube (2026)
Jan 16, 2026

Occhiali Smart AI 2026: Una prospettiva software-first sul mercato dell'AI indossabile
Jan 7, 2026







