
Mercury
Mercury ist das erste kommerzielle, diffusionsbasierte Large Language Model (dLLM), das Text bis zu 10x schneller als herkömmliche LLMs generieren kann und gleichzeitig eine hohe Ausgabequalität beibehält.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure

Produktinformationen
Aktualisiert:Feb 28, 2026
Was ist Mercury
Mercury ist ein bahnbrechendes KI-Modell, das von Inception Labs entwickelt wurde und eine grundlegende Abkehr von traditionellen autoregressiven Sprachmodellen zur diffusionsbasierten Textgenerierung darstellt. Mercury und seine auf Code spezialisierte Version Mercury Coder wurden im Februar 2025 auf dem Amazon Bedrock Marketplace und Amazon SageMaker JumpStart veröffentlicht. Die Modellfamilie wurde von einem Team von Forschern aus Stanford, UCLA und Cornell entwickelt, die Pionierarbeit im Bereich der grundlegenden Diffusion geleistet haben. Mercury wurde entwickelt, um verschiedene Aufgaben zu bewältigen, darunter Codegenerierung, logisches Denken und Echtzeit-Sprachanwendungen.
Hauptfunktionen von Mercury
Mercury ist ein bahnbrechendes, auf Diffusion basierendes Large Language Model (dLLM), das von Inception Labs entwickelt wurde und die Art und Weise, wie Sprachmodelle Text generieren, grundlegend verändert. Im Gegensatz zu traditionellen autoregressiven Modellen, die Text sequentiell generieren, generiert Mercury mehrere Token parallel und erreicht Geschwindigkeiten von über 1.000 Token pro Sekunde auf Standard-NVIDIA-GPUs, während die Ausgaben von hoher Qualität bleiben. Es bietet Funktionen der Enterprise-Klasse, darunter ein 128K-Token-Kontextfenster, Unterstützung für Tool-Aufrufe und Kompatibilität mit wichtigen Cloud-Plattformen wie AWS Bedrock und Azure AI Foundry.
Parallele Token-Generierung: Verwendet eine auf Diffusion basierende Architektur, um mehrere Token gleichzeitig anstelle einer sequentiellen Generierung zu generieren, wodurch eine 5-10x schnellere Verarbeitung als bei traditionellen LLMs ermöglicht wird
Cloud-Plattform-Integration: Verfügbar über wichtige Cloud-Anbieter wie AWS Bedrock und Azure AI Foundry mit Zuverlässigkeit der Enterprise-Klasse und 99,5%+ Verfügbarkeit
API-Kompatibilität: Behält die OpenAI-API-Kompatibilität bei und unterstützt Standard-Prompting-Methoden (Zero-Shot, Few-Shot, CoT), wodurch es ein direkter Ersatz für bestehende LLM-Workflows ist
Fortschrittliche Denkfähigkeiten: Bietet einen mehrstufigen Verfeinerungsprozess, der Fehler erkennt und die Kohärenz während der Textgenerierung verbessert, besonders stark beim Codieren und bei mathematischen Denkaufgaben
Anwendungsfälle von Mercury
Code-Entwicklung: Ermöglicht Echtzeit-Codevervollständigung, intelligente Tab-Vorschläge und schnelle Code-Bearbeitungen in Entwicklungsumgebungen mit extrem niedriger Latenz
Enterprise-Suche: Ermöglicht sofortigen Datenabruf und -zusammenfassung über große organisationseigene Wissensdatenbanken mit minimaler Latenz
Echtzeit-Sprachanwendungen: Unterstützt reaktionsschnelle sprachgesteuerte Workflows, einschließlich Kundensupport, Übersetzungsdienste und interaktive Sprachagenten
Automatisierte Workflows: Verarbeitet komplexe Routing-, Analyse- und Entscheidungsprozesse in Unternehmensumgebungen mit extrem reaktionsschnellen KI-Funktionen
Vorteile
Deutlich schnellere Verarbeitungsgeschwindigkeit (1000+ Token pro Sekunde)
Niedrigere Inferenzkosten im Vergleich zu traditionellen LLMs
Direkte Kompatibilität mit bestehenden LLM-Workflows
Nachteile
Begrenzte Erfolgsbilanz als neue Technologie
Derzeitiger Fokus liegt hauptsächlich auf Codierung und Unternehmensanwendungen
Benötigt spezifische GPU-Hardware für optimale Leistung
Wie verwendet man Mercury
Konto erstellen: Besuchen Sie platform.inceptionlabs.ai und erstellen Sie ein Inception Platform-Konto oder melden Sie sich an, falls Sie bereits eines haben
API-Schlüssel erhalten: Gehen Sie zum Abschnitt API-Schlüssel in Ihrem Konto-Dashboard und erstellen Sie einen neuen API-Schlüssel. Neue API-Schlüssel enthalten 10 Millionen kostenlose Token
Bereitstellungsmethode wählen: Sie können je nach Ihren Bedürfnissen über die direkte API-Integration, den Amazon Bedrock Marketplace, Amazon SageMaker JumpStart oder Azure AI Foundry auf Mercury zugreifen
API-Aufrufe tätigen: Verwenden Sie den API-Schlüssel, um Aufrufe an die Mercury-API-Endpunkte zu tätigen. Die API ist OpenAI-kompatibel und kann über REST-Aufrufe oder vorhandene OpenAI-Clientbibliotheken aufgerufen werden
Beispiel für die grundlegende API-Nutzung: Senden Sie eine POST-Anfrage an https://api.inceptionlabs.ai/v1/chat/completions mit Ihrem API-Schlüssel im Authorization-Header und der JSON-Nutzlast, die das Modell (z. B. \'mercury-2\') und die Nachrichten enthält
Einstellungen konfigurieren: Optional können Sie Parameter wie max_tokens festlegen und die Streaming-/Diffusionsvisualisierung aktivieren, indem Sie den Parameter diffusing auf true setzen
In Tools integrieren: Mercury kann in gängige Tools und Frameworks wie LangChain, AISuite und LiteLLM für komplexere Anwendungen integriert werden
Nutzung überwachen: Verfolgen Sie Ihre Token-Nutzung über das Plattform-Dashboard. Eingabe-Token kosten 0,25 $ pro 1 Million Token und Ausgabe-Token kosten 0,75 $ pro 1 Million Token
Support erhalten: Bei Problemen oder Fragen wenden Sie sich an [email protected] oder treten Sie dem Discord-Kanal bei. Unternehmenskunden können sich an [email protected] wenden
Mercury FAQs
Mercury ist das erste kommerziell verf\u00fcgbare, auf Diffusion basierende Large Language Model (dLLM), das von Inception Labs im Februar 2025 auf den Markt gebracht wurde. Es verwendet einen bahnbrechenden, auf Diffusion basierenden Ansatz zur Spracherzeugung anstelle der traditionellen autoregressiven Generierung.
Mercury Video
Beliebte Artikel

Die beliebtesten KI-Tools von 2025 | 2026 Update von AIPURE
Feb 10, 2026

Moltbook AI: Das erste reine KI-Agenten-Netzwerk von 2026
Feb 5, 2026

ThumbnailCreator: Das KI-Tool, das Ihren YouTube-Thumbnail-Stress löst (2026)
Jan 16, 2026

KI-Smartglasses 2026: Eine Software-orientierte Perspektive auf den Markt für tragbare KI
Jan 7, 2026







