AI Tool

Mercury 2 Bewertung

Mercury 2 ist ein auf Diffusion basierendes großes Sprachmodell, das von Inception Labs entwickelt wurde und es KI-Entwicklern ermöglicht, effiziente, multimodale KI-Workflows zu erstellen.

Visit Mercury 2
aiimage-generationproductivity
Mercury 2 - AI tool for mercury. Professional illustration showing core functionality and features.
1Verarbeitet über 1.000 Tokens pro Sekunde und erreicht über die Inception API eine Geschwindigkeit von 1.196,2 Tokens/Sekunde.
2Eingeführt im Februar 2026 mit einem Preismodell, das bei 0,38 USD pro 1 Million Tokens beginnt.
3Erreicht einen AIME 2025 Score von 91,1, wettbewerbsfähig mit führenden Modellen.

overview

Was ist Mercury 2?

Mercury 2 ist ein diffusionsbasiertes großes Sprachmodell (dLLM)-Werkzeug, das von Inception Labs entwickelt wurde und es KI-Entwicklern ermöglicht, ultraschnelles Denken in Produktions-KI-Workflows zu integrieren. Es ist für eine effiziente multimodale Aufgabenbewältigung konzipiert und beinhaltet eine eingebaute Fehlerkorrektur während des Token-Erzeugungsprozesses.

quick facts

Schnelle Fakten

| Attribut | Wert | |-------------|--------------------------| | Entwickler | Inception Labs | | Preis | Freemium; $0,38 pro 1M Tokens | | API Verfügbar | Ja | | Konformität | Anforderungen des EU KI-Gesetzes | | Sicherheit | SOC2 | | Unterstützung| E-Mail, Chat, Dokumentation |

features

Hauptmerkmale von Mercury 2

Mercury 2 verwendet eine Diffusionsarchitektur für die Generierung mehrerer Token, die eine hochgeschwindigkeits Textausgabe ermöglicht und dabei Qualitätskontrolle durch Fehlerkorrektur und anpassbare Denkstufen gewährleistet.

  • 1Diffusionsarchitektur für parallele Token-Generierung.
  • 2Fehlerkorrektur während der Verfeinerung mehrerer Tokens.
  • 3Einstellbare Denkstufen für unterschiedliche Ausgabe-Tiefen.
  • 4Unterstützt die Verarbeitung von langen Kontexten für komplexe Anfragen.
  • 5Native Werkzeugnutzung mit schema-angepasster JSON-Ausgabe.
  • 6Integrationskompatibilität mit der OpenAI-API.
  • 7Echtzeitanwendungen wie Sprachinteraktion.

use cases

Wer sollte Mercury 2 verwenden?

Mercury 2 ist auf verschiedene AI-Entwicklungsumgebungen zugeschnitten und kann insbesondere für Teams von Vorteil sein, die effiziente und leistungsstarke KI-Lösungen benötigen.

  • 1AI-Entwickler, die die Anwendungsleistung verbessern möchten.
  • 2Unternehmens-AI-Teams, die mehrstufige Arbeitsabläufe automatisieren.
  • 3Produktentwickler, die Echtzeit-Voice- und Codierungsfunktionen benötigen.
  • 4Organisationen, die sich auf schnelle Suche und Inhaltsgenerierung konzentrieren.

pricing

Mercury 2 Preise & Pläne

Mercury 2 arbeitet nach einem Freemium-Modell und bietet eine Mischung aus Eingabe- und Ausgabe-Preismodellen an. Die Kosten betragen 0,38 USD pro 1 Million Tokens, ohne dass derzeit detaillierte gestaffelte Pläne verfügbar sind.

  • 1Eingangspreis: 0,38 $ pro 1 Million Tokens.
  • 2Preise für Ausgabe: Stufen derzeit nicht spezifiziert.

competitors

Merkur 2 vs. Wettbewerber

Die einzigartige diffusionbasierte Architektur von Mercury 2 bietet im Vergleich zu traditionellen LLMs in verschiedenen Bereichen, einschließlich Geschwindigkeit und Kosten, klare Vorteile.

  • 1Merkur 2 vs. Claude 4.5 Haiku: Merkur 2 verarbeitet 10x mehr Tokens pro Sekunde im Vergleich zu Claudes 89 Tokens/Sekunde.
  • 2Merkur 2 gegen GPT-5.2 Mini: Merkur 2 bietet eine überlegene Latenz und Geschwindigkeit und erreicht gleichzeitig den AIME-Score von 91,1.
  • 3Mercury 2 vs. Gemini 2.0 Flash Lite: Mercury 2 bietet aufgrund seines Diffusionsmodells eine bessere Durchsatzrate im Vergleich zur autoregressiven Generierung von Gemini.
  • 4Mercury 2 vs. Codestral 2501: Mercury 2 erzielt schnellere Ausführungszeiten für latenzempfindliche Anwendungen, obwohl Codestral in bestimmten Programmier-Benchmarks führt.
  • 5Mercury 2 vs DeepSeek V2.5: Mercury 2 reduziert die durchschnittliche Latenzzeit deutlich im Vergleich zu DeepSeek's 2,07 Sekunden.

Frequently Asked Questions

+Was ist Mercury 2?

Mercury 2 ist ein diffusion-basiertes Large Language Model (dLLM)-Tool, das von Inception Labs entwickelt wurde und es KI-Entwicklern ermöglicht, ultra-schnelles Denken in Produktions-KI-Workflows zu implementieren. Es ist für eine effiziente multimodale Aufgabenerledigung konzipiert und integriert eine eingebaute Fehlerkorrektur während des Token-Generierungsprozesses.

+Ist Mercury 2 kostenlos?

Mercury 2 verwendet ein Freemium-Preismodell, das bei 0,38 USD pro 1 Million Tokens für Eingaben beginnt.

+Was sind die Hauptmerkmale von Mercury 2?

Wichtige Merkmale umfassen eine Diffusionsarchitektur für die parallele Token-Generierung, Fehlerkorrektur, einstellbare Denklevels, die Handhabung langer Kontexte, Integrationskompatibilität mit der OpenAI-API und Unterstützung für Echtzeit-Sprachanwendungen.

+Wer sollte Mercury 2 verwenden?

KI-Entwickler, KI-Teams in Unternehmen, Produktentwickler und Organisationen, die komplexe Workflows automatisieren, sollten in Erwägung ziehen, Mercury 2 aufgrund seiner Effizienz- und Leistungsvorteile zu nutzen.

+Wie schneidet Mercury 2 im Vergleich zu Alternativen ab?

Mercury 2 bietet erhebliche Geschwindigkeitsvorteile gegenüber traditionellen autoregressiven Modellen, während es gleichzeitig eine wettbewerbsfähige Qualität und niedrigere Betriebskosten gewährleistet.