Mercury ist das erste kommerzielle, diffusionsbasierte Large Language Model (dLLM), das Text bis zu 10x schneller als herkömmliche LLMs generieren kann und gleichzeitig eine hohe Ausgabequalität beibehält.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure
Mercury

Produktinformationen

Aktualisiert:Feb 28, 2026

Was ist Mercury

Mercury ist ein bahnbrechendes KI-Modell, das von Inception Labs entwickelt wurde und eine grundlegende Abkehr von traditionellen autoregressiven Sprachmodellen zur diffusionsbasierten Textgenerierung darstellt. Mercury und seine auf Code spezialisierte Version Mercury Coder wurden im Februar 2025 auf dem Amazon Bedrock Marketplace und Amazon SageMaker JumpStart veröffentlicht. Die Modellfamilie wurde von einem Team von Forschern aus Stanford, UCLA und Cornell entwickelt, die Pionierarbeit im Bereich der grundlegenden Diffusion geleistet haben. Mercury wurde entwickelt, um verschiedene Aufgaben zu bewältigen, darunter Codegenerierung, logisches Denken und Echtzeit-Sprachanwendungen.

Hauptfunktionen von Mercury

Mercury ist ein bahnbrechendes, auf Diffusion basierendes Large Language Model (dLLM), das von Inception Labs entwickelt wurde und die Art und Weise, wie Sprachmodelle Text generieren, grundlegend verändert. Im Gegensatz zu traditionellen autoregressiven Modellen, die Text sequentiell generieren, generiert Mercury mehrere Token parallel und erreicht Geschwindigkeiten von über 1.000 Token pro Sekunde auf Standard-NVIDIA-GPUs, während die Ausgaben von hoher Qualität bleiben. Es bietet Funktionen der Enterprise-Klasse, darunter ein 128K-Token-Kontextfenster, Unterstützung für Tool-Aufrufe und Kompatibilität mit wichtigen Cloud-Plattformen wie AWS Bedrock und Azure AI Foundry.
Parallele Token-Generierung: Verwendet eine auf Diffusion basierende Architektur, um mehrere Token gleichzeitig anstelle einer sequentiellen Generierung zu generieren, wodurch eine 5-10x schnellere Verarbeitung als bei traditionellen LLMs ermöglicht wird
Cloud-Plattform-Integration: Verfügbar über wichtige Cloud-Anbieter wie AWS Bedrock und Azure AI Foundry mit Zuverlässigkeit der Enterprise-Klasse und 99,5%+ Verfügbarkeit
API-Kompatibilität: Behält die OpenAI-API-Kompatibilität bei und unterstützt Standard-Prompting-Methoden (Zero-Shot, Few-Shot, CoT), wodurch es ein direkter Ersatz für bestehende LLM-Workflows ist
Fortschrittliche Denkfähigkeiten: Bietet einen mehrstufigen Verfeinerungsprozess, der Fehler erkennt und die Kohärenz während der Textgenerierung verbessert, besonders stark beim Codieren und bei mathematischen Denkaufgaben

Anwendungsfälle von Mercury

Code-Entwicklung: Ermöglicht Echtzeit-Codevervollständigung, intelligente Tab-Vorschläge und schnelle Code-Bearbeitungen in Entwicklungsumgebungen mit extrem niedriger Latenz
Enterprise-Suche: Ermöglicht sofortigen Datenabruf und -zusammenfassung über große organisationseigene Wissensdatenbanken mit minimaler Latenz
Echtzeit-Sprachanwendungen: Unterstützt reaktionsschnelle sprachgesteuerte Workflows, einschließlich Kundensupport, Übersetzungsdienste und interaktive Sprachagenten
Automatisierte Workflows: Verarbeitet komplexe Routing-, Analyse- und Entscheidungsprozesse in Unternehmensumgebungen mit extrem reaktionsschnellen KI-Funktionen

Vorteile

Deutlich schnellere Verarbeitungsgeschwindigkeit (1000+ Token pro Sekunde)
Niedrigere Inferenzkosten im Vergleich zu traditionellen LLMs
Direkte Kompatibilität mit bestehenden LLM-Workflows

Nachteile

Begrenzte Erfolgsbilanz als neue Technologie
Derzeitiger Fokus liegt hauptsächlich auf Codierung und Unternehmensanwendungen
Benötigt spezifische GPU-Hardware für optimale Leistung

Wie verwendet man Mercury

Konto erstellen: Besuchen Sie platform.inceptionlabs.ai und erstellen Sie ein Inception Platform-Konto oder melden Sie sich an, falls Sie bereits eines haben
API-Schlüssel erhalten: Gehen Sie zum Abschnitt API-Schlüssel in Ihrem Konto-Dashboard und erstellen Sie einen neuen API-Schlüssel. Neue API-Schlüssel enthalten 10 Millionen kostenlose Token
Bereitstellungsmethode wählen: Sie können je nach Ihren Bedürfnissen über die direkte API-Integration, den Amazon Bedrock Marketplace, Amazon SageMaker JumpStart oder Azure AI Foundry auf Mercury zugreifen
API-Aufrufe tätigen: Verwenden Sie den API-Schlüssel, um Aufrufe an die Mercury-API-Endpunkte zu tätigen. Die API ist OpenAI-kompatibel und kann über REST-Aufrufe oder vorhandene OpenAI-Clientbibliotheken aufgerufen werden
Beispiel für die grundlegende API-Nutzung: Senden Sie eine POST-Anfrage an https://api.inceptionlabs.ai/v1/chat/completions mit Ihrem API-Schlüssel im Authorization-Header und der JSON-Nutzlast, die das Modell (z. B. \'mercury-2\') und die Nachrichten enthält
Einstellungen konfigurieren: Optional können Sie Parameter wie max_tokens festlegen und die Streaming-/Diffusionsvisualisierung aktivieren, indem Sie den Parameter diffusing auf true setzen
In Tools integrieren: Mercury kann in gängige Tools und Frameworks wie LangChain, AISuite und LiteLLM für komplexere Anwendungen integriert werden
Nutzung überwachen: Verfolgen Sie Ihre Token-Nutzung über das Plattform-Dashboard. Eingabe-Token kosten 0,25 $ pro 1 Million Token und Ausgabe-Token kosten 0,75 $ pro 1 Million Token
Support erhalten: Bei Problemen oder Fragen wenden Sie sich an [email protected] oder treten Sie dem Discord-Kanal bei. Unternehmenskunden können sich an [email protected] wenden

Mercury FAQs

Mercury ist das erste kommerziell verf\u00fcgbare, auf Diffusion basierende Large Language Model (dLLM), das von Inception Labs im Februar 2025 auf den Markt gebracht wurde. Es verwendet einen bahnbrechenden, auf Diffusion basierenden Ansatz zur Spracherzeugung anstelle der traditionellen autoregressiven Generierung.

Neueste KI-Tools ähnlich wie Mercury

Foundry
Foundry
Contact for PricingAI Code GeneratorGame Tools
Foundry ist eine vielseitige Plattform, die in mehreren Formen existiert - als Werkzeugkette zur Entwicklung von Smart Contracts, als Software für virtuelles Tabletop-Spielen und als traditionelle Metallgussanlage - jede bietet spezialisierte Funktionen für ihre jeweiligen Bereiche.
PythonConvert.com
PythonConvert.com
PythonConvert.com ist ein kostenloses webbasiertes Tool, das KI-gestützte Codeübersetzungen zwischen Python und anderen Programmiersprachen sowie Python-Typkonvertierungsfunktionen bietet.
Softgen
Softgen
Softgen.ai ist eine KI-gestützte Full-Stack-Projektgenerator-Plattform, die es Benutzern ermöglicht, ihre Ideen ohne Programmieranforderungen in funktionale Webanwendungen umzuwandeln.
Micro SaaS Ideas
Micro SaaS Ideas
Micro SaaS-Ideen sind kleinskalierte, nischenfokussierte Softwarelösungen, die spezifische Probleme oder Märkte ansprechen und Unternehmern eine Möglichkeit bieten, profitable Geschäfte mit minimalen Ressourcen und Komplexität aufzubauen.