Mercury è il primo modello linguistico di grandi dimensioni (dLLM) basato sulla diffusione su scala commerciale in grado di generare testo fino a 10 volte più velocemente dei tradizionali LLM mantenendo un output di alta qualità.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure
Mercury

Informazioni sul Prodotto

Aggiornato:Feb 28, 2026

Cos'è Mercury

Mercury è un modello di intelligenza artificiale rivoluzionario sviluppato da Inception Labs che rappresenta un cambiamento fondamentale dai tradizionali modelli linguistici autoregressivi alla generazione di testo basata sulla diffusione. Lanciato a febbraio 2025, Mercury e la sua versione specializzata per il codice Mercury Coder sono disponibili tramite Amazon Bedrock Marketplace e Amazon SageMaker JumpStart. La famiglia di modelli è stata creata da un team di ricercatori di Stanford, UCLA e Cornell che hanno fatto da pionieri nel lavoro di diffusione fondamentale. Mercury è progettato per gestire varie attività tra cui la generazione di codice, il ragionamento e le applicazioni vocali in tempo reale.

Caratteristiche principali di Mercury

Mercury è un modello linguistico di grandi dimensioni (dLLM) basato sulla diffusione, rivoluzionario, sviluppato da Inception Labs, che cambia radicalmente il modo in cui i modelli linguistici generano testo. A differenza dei modelli autoregressivi tradizionali che generano testo in sequenza, Mercury genera più token in parallelo, raggiungendo velocità superiori a 1.000 token al secondo su GPU NVIDIA standard, pur mantenendo output di alta qualità. Offre funzionalità di livello enterprise, tra cui una finestra di contesto di 128K token, supporto per la chiamata di strumenti e compatibilità con le principali piattaforme cloud come AWS Bedrock e Azure AI Foundry.
Generazione parallela di token: Utilizza un'architettura basata sulla diffusione per generare più token simultaneamente invece della generazione sequenziale, consentendo un'elaborazione 5-10 volte più veloce rispetto ai LLM tradizionali
Integrazione della piattaforma cloud: Disponibile tramite i principali fornitori di cloud, tra cui AWS Bedrock e Azure AI Foundry, con affidabilità di livello enterprise e uptime del 99,5%+
Compatibilità API: Mantiene la compatibilità con l'API OpenAI e supporta i metodi di prompting standard (zero-shot, few-shot, CoT), rendendolo un sostituto immediato per i flussi di lavoro LLM esistenti
Funzionalità di ragionamento avanzate: Presenta un processo di perfezionamento multi-step che rileva gli errori e migliora la coerenza durante la generazione del testo, particolarmente efficace nelle attività di codifica e ragionamento matematico

Casi d'uso di Mercury

Sviluppo di codice: Alimenta il completamento del codice in tempo reale, i suggerimenti intelligenti per le tabulazioni e le modifiche rapide del codice in ambienti di sviluppo con latenza ultra-bassa
Ricerca aziendale: Consente il recupero e la sintesi istantanei dei dati attraverso ampie basi di conoscenza organizzative con latenza minima
Applicazioni vocali in tempo reale: Supporta flussi di lavoro reattivi basati sulla voce, tra cui assistenza clienti, servizi di traduzione e agenti vocali interattivi
Flussi di lavoro automatizzati: Gestisce complessi processi di routing, analisi e decisione in ambienti aziendali con funzionalità di intelligenza artificiale ultra-reattive

Vantaggi

Velocità di elaborazione significativamente più elevata (oltre 1000 token al secondo)
Costi di inferenza inferiori rispetto ai LLM tradizionali
Compatibilità immediata con i flussi di lavoro LLM esistenti

Svantaggi

Storico limitato come nuova tecnologia
Attualmente focalizzato principalmente sulla codifica e sulle applicazioni aziendali
Richiede hardware GPU specifico per prestazioni ottimali

Come usare Mercury

Crea un account: Visita platform.inceptionlabs.ai e crea un account Inception Platform o accedi se ne hai già uno
Ottieni la chiave API: Vai alla sezione Chiavi API nel dashboard del tuo account e crea una nuova chiave API. Le nuove chiavi API vengono fornite con 10 milioni di token gratuiti
Scegli il metodo di implementazione: Puoi accedere a Mercury tramite integrazione API diretta, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart o Azure AI Foundry a seconda delle tue esigenze
Effettua chiamate API: Usa la chiave API per effettuare chiamate agli endpoint API di Mercury. L'API è compatibile con OpenAI e può essere accessibile tramite chiamate REST o librerie client OpenAI esistenti
Esempio di utilizzo API di base: Effettua una richiesta POST a https://api.inceptionlabs.ai/v1/chat/completions con la tua chiave API nell'intestazione di autorizzazione e il payload JSON contenente il modello (ad es. 'mercury-2') e i messaggi
Configura le impostazioni: Facoltativamente, imposta parametri come max_tokens e abilita la visualizzazione in streaming/diffusione impostando il parametro di diffusione su true
Integra con gli strumenti: Mercury può essere integrato con strumenti e framework popolari tra cui LangChain, AISuite e LiteLLM per applicazioni più complesse
Monitora l'utilizzo: Tieni traccia del tuo utilizzo di token tramite il dashboard della piattaforma. I token di input costano $0,25 per 1 milione di token e i token di output costano $0,75 per 1 milione di token
Ottieni supporto: Per problemi o domande, contatta [email protected] o unisciti al loro canale Discord. I clienti aziendali possono contattare [email protected]

FAQ di Mercury

Mercury è il primo modello linguistico di grandi dimensioni (LLM) basato sulla diffusione disponibile in commercio (dLLM) lanciato da Inception Labs a febbraio 2025. Utilizza un approccio rivoluzionario basato sulla diffusione per la generazione del linguaggio invece della tradizionale generazione auto-regressiva.

Ultimi Strumenti AI Simili a Mercury

Foundry
Foundry
Contact for PricingAI Code GeneratorGame Tools
Foundry è una piattaforma versatile che esiste in più forme - come un toolchain per lo sviluppo di smart contract, un software di gioco da tavolo virtuale e una tradizionale struttura di fusione dei metalli - ognuna delle quali offre funzionalità specializzate per i rispettivi domini.
PythonConvert.com
PythonConvert.com
PythonConvert.com è uno strumento web-based gratuito che fornisce traduzione del codice alimentata dall'IA tra Python e altri linguaggi di programmazione, nonché capacità di conversione dei tipi Python.
Softgen
Softgen
Softgen.ai è una piattaforma di generazione di progetti full-stack potenziata dall'IA che consente agli utenti di trasformare le loro idee in applicazioni web funzionali senza requisiti di codifica.
Micro SaaS Ideas
Micro SaaS Ideas
Le idee di Micro SaaS sono soluzioni software su piccola scala, focalizzate su nicchie, che mirano a problemi o mercati specifici, offrendo agli imprenditori un modo per costruire aziende redditizie con risorse e complessità minime.