Deepseek KI-Modell V3.1

Deepseek revolutioniert KI mit neuem Hybrid-Modell V3.1

Deepseek hat sein neuestes KI-Modell, Deepseek-V3.1, vorgestellt, das erstmals einen hybriden Ansatz mit zwei Betriebsmodi verfolgt: einem "denkenden" und einem "nicht-denkenden" Modus. Diese Innovation soll den Weg für das von vielen KI-Unternehmen angestrebte "Agenten-Zeitalter" ebnen. Das Modell baut auf der Vorgängerversion Deepseek-V3 auf und wurde mit 840 Milliarden zusätzlichen Tokens trainiert, um ein tieferes Kontextverständnis und verbesserte Fähigkeiten bei komplexen Aufgaben zu erzielen.

Schlüsselerkenntnisse

  • Deepseek-V3.1 ist das erste KI-Modell des Unternehmens mit zwei Betriebsmodi: "Think" (Reasoning) und "Non-Think" (Chat).
  • Beide Modi unterstützen ein beeindruckendes Kontextfenster von 128.000 Tokens.
  • Das Modell übertrifft in Code- und Logikaufgaben das reine Reasoning-Modell R1 von Deepseek und ist auf Augenhöhe mit führenden Hybrid-Modellen von Anthropic und OpenAI.
  • Deepseek setzt seine Strategie fort, kostengünstige KI-Lösungen anzubieten, mit neuen API-Preisen, die deutlich unter denen der Konkurrenz liegen.
  • Die Open-Source-Gewichte sind auf Hugging Face verfügbar und stehen unter der MIT-Lizenz.

Zwei Modi für unterschiedliche Anforderungen

Deepseek-V3.1 ermöglicht den Wechsel zwischen zwei Betriebsarten. Der "Think"-Modus (deepseek-reasoner) ist für mehrstufiges Schlussfolgern und die effiziente Nutzung von Werkzeugen optimiert. Der "Non-Think"-Modus (deepseek-chat) ist hingegen für einfachere Aufgaben konzipiert. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Nutzer können die Funktion direkt im Chat-Angebot von Deepseek über den "Deepthink"-Knopf testen.

Leistung und Benchmarks

Laut Deepseek erzielte das neue Modell in Benchmarks wie SWE und Terminal-Bench verbesserte und effizientere Ergebnisse. In Coding-Benchmarks erreicht das Hybrid-Modell Ergebnisse, die mit den neuesten Hybrid-Modellen von Anthropic und OpenAI vergleichbar sind. Der "Think"-Modus liefert zudem schnellere und bessere Antworten als das im Mai aktualisierte Reasoning-Modell Deepseek-R1-0528.

Kostengünstige Preisgestaltung

Mit der Einführung von Deepseek-V3.1 am 5. September 2025 wird auch eine neue Preisstruktur wirksam. Die Nutzung der Input-API kostet 0,07 US-Dollar pro Million Tokens bei Cache-Treffer und 0,56 US-Dollar bei Cache-Fehlschlag. Die Ausgabe von Tokens wird mit 1,68 US-Dollar pro Million Tokens berechnet. Diese Preise sind signifikant niedriger als die der Konkurrenz, wie Gemini 2.5 Pro (10,00 US-Dollar für Ausgaben) oder OpenAI GPT-5 (10,00 US-Dollar pro Million Tokens).

Open Source und Zugänglichkeit

Die Open-Source-Gewichte von Deepseek-V3.1 sind auf Hugging Face verfügbar und stehen unter der MIT-Lizenz. Das Modell ist über zwei spezialisierte API-Endpunkte zugänglich. Die Integration des Anthropic API-Formats und die Beta-Unterstützung für Strict Function Calling sollen die Nutzung für Entwickler erleichtern. Das Modell nutzt unterschiedliche Prompt-Templates für die beiden Modi, gesteuert durch spezielle Tokens wie <think> und </think>.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like