ladder near building

Inception kehrt mit revolutionärem KI-Modell zurück und sichert sich Millionenfinanzierung

Das KI-Unternehmen Inception, gegründet von Deepmind-Mitgründer Mustafa Suleyman, hat nach einer Phase der Neuausrichtung seine Rückkehr angekündigt. Mit einer frischen Finanzierung von 50 Millionen US-Dollar, angeführt von Menlo Ventures und unterstützt durch namhafte Investoren wie Microsoft, Nvidia, Databricks und Snowflake, konzentriert sich Inception nun auf die Entwicklung fortschrittlicher Diffusionsmodelle für Text und Code.

Wichtige Erkenntnisse

  • Inception hat 50 Millionen US-Dollar frisches Kapital erhalten.
  • Das Unternehmen setzt auf Diffusionsmodelle (dLLMs) für Text- und Code-Generierung.
  • Das neue Modell "Mercury" verspricht eine deutlich höhere Verarbeitungsgeschwindigkeit und Kosteneffizienz.

Inceptions neue Ausrichtung: Diffusionsmodelle für Text und Code

Inception, ein KI-Startup, das zuvor durch die Übernahme seiner Belegschaft durch Microsoft und die Fokussierung seines CEOs Mustafa Suleyman auf das Thema Superintelligenz von sich reden machte, ist mit neuem Kapital und einer klaren strategischen Neuausrichtung zurückgekehrt. Das Unternehmen hat sich 50 Millionen US-Dollar an frischer Finanzierung gesichert, wobei Menlo Ventures die Runde anführte. Beteiligt waren auch namhafte Technologiegiganten wie Microsoft (über M12), Nvidia, Databricks und Snowflake.

Der Fokus von Inception liegt nun auf sogenannten Diffusionsmodellen (dLLMs). Im Gegensatz zu klassischen Sprach-KIs, die Text Wort für Wort generieren, verfeinern diese Modelle Inhalte schrittweise. Diese Technik, die bisher vor allem in der Bildgenerierung bekannt war, soll nun von Inception auf die Generierung von Text und Code übertragen werden.

Das "Mercury"-Modell: Ein Sprung in Geschwindigkeit und Effizienz

Das hauseigene Modell von Inception, genannt "Mercury", stellt einen signifikanten Fortschritt dar. Laut Unternehmensangaben kann es über 1.000 Token pro Sekunde verarbeiten. Zum Vergleich: Herkömmliche autoregressive Modelle, wie sie beispielsweise in GPT-Modellen zum Einsatz kommen, erreichen typischerweise nur eine Geschwindigkeit von 40 bis 60 Token pro Sekunde. Google hatte im Mai 2025 mit "Gemini Diffusion" ein vergleichbares Modell vorgestellt, was die wachsende Bedeutung dieser Technologie unterstreicht.

"Mercury" ist bereits über Partnerplattformen wie OpenRouter und Poe zugänglich. Die Preisgestaltung ist ebenfalls wettbewerbsfähig: 0,25 US-Dollar pro Million Eingabetokens und 1 US-Dollar für Ausgabetokens. Dies positioniert "Mercury" als eine attraktive Alternative zu klassischen LLMs, insbesondere im Hinblick auf Geschwindigkeit und Kosten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like