Deepseek hat sein neuestes KI-Modell, Deepseek-V3.1, vorgestellt, das erstmals einen hybriden Ansatz mit zwei Betriebsmodi verfolgt: einem "denkenden" und einem "nicht-denkenden" Modus. Diese Innovation soll den Weg für das von vielen KI-Unternehmen angestrebte "Agenten-Zeitalter" ebnen. Das Modell baut auf der Vorgängerversion Deepseek-V3 auf und wurde mit 840 Milliarden zusätzlichen Tokens trainiert, um ein tieferes Kontextverständnis und verbesserte Fähigkeiten bei komplexen Aufgaben zu erzielen.
Schlüsselerkenntnisse
- Deepseek-V3.1 ist das erste KI-Modell des Unternehmens mit zwei Betriebsmodi: "Think" (Reasoning) und "Non-Think" (Chat).
- Beide Modi unterstützen ein beeindruckendes Kontextfenster von 128.000 Tokens.
- Das Modell übertrifft in Code- und Logikaufgaben das reine Reasoning-Modell R1 von Deepseek und ist auf Augenhöhe mit führenden Hybrid-Modellen von Anthropic und OpenAI.
- Deepseek setzt seine Strategie fort, kostengünstige KI-Lösungen anzubieten, mit neuen API-Preisen, die deutlich unter denen der Konkurrenz liegen.
- Die Open-Source-Gewichte sind auf Hugging Face verfügbar und stehen unter der MIT-Lizenz.
Zwei Modi für unterschiedliche Anforderungen
Deepseek-V3.1 ermöglicht den Wechsel zwischen zwei Betriebsarten. Der "Think"-Modus (deepseek-reasoner) ist für mehrstufiges Schlussfolgern und die effiziente Nutzung von Werkzeugen optimiert. Der "Non-Think"-Modus (deepseek-chat) ist hingegen für einfachere Aufgaben konzipiert. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Nutzer können die Funktion direkt im Chat-Angebot von Deepseek über den "Deepthink"-Knopf testen.
Leistung und Benchmarks
Laut Deepseek erzielte das neue Modell in Benchmarks wie SWE und Terminal-Bench verbesserte und effizientere Ergebnisse. In Coding-Benchmarks erreicht das Hybrid-Modell Ergebnisse, die mit den neuesten Hybrid-Modellen von Anthropic und OpenAI vergleichbar sind. Der "Think"-Modus liefert zudem schnellere und bessere Antworten als das im Mai aktualisierte Reasoning-Modell Deepseek-R1-0528.
Kostengünstige Preisgestaltung
Mit der Einführung von Deepseek-V3.1 am 5. September 2025 wird auch eine neue Preisstruktur wirksam. Die Nutzung der Input-API kostet 0,07 US-Dollar pro Million Tokens bei Cache-Treffer und 0,56 US-Dollar bei Cache-Fehlschlag. Die Ausgabe von Tokens wird mit 1,68 US-Dollar pro Million Tokens berechnet. Diese Preise sind signifikant niedriger als die der Konkurrenz, wie Gemini 2.5 Pro (10,00 US-Dollar für Ausgaben) oder OpenAI GPT-5 (10,00 US-Dollar pro Million Tokens).
Open Source und Zugänglichkeit
Die Open-Source-Gewichte von Deepseek-V3.1 sind auf Hugging Face verfügbar und stehen unter der MIT-Lizenz. Das Modell ist über zwei spezialisierte API-Endpunkte zugänglich. Die Integration des Anthropic API-Formats und die Beta-Unterstützung für Strict Function Calling sollen die Nutzung für Entwickler erleichtern. Das Modell nutzt unterschiedliche Prompt-Templates für die beiden Modi, gesteuert durch spezielle Tokens wie <think> und </think>.