Reasoning-Modelle wie Deepseek-R1 zeichnen sich nicht nur durch längeres Nachdenken aus, sondern simulieren laut einer aktuellen Untersuchung eine Art interne Debatte zwischen verschiedenen Sichtweisen, die sich gegenseitig hinterfragen und korrigieren. Deepseek präsentiert Erfolge seines KI-Modells bei Mathematik-Olympiade
Wissenschaftler von Google, der University of Chicago und dem Santa Fe Institute haben analysiert, weshalb Reasoning-Modelle wie Deepseek-R1 und QwQ-32B bei komplexen Aufgaben deutlich überlegen sind im Vergleich zu herkömmlichen Sprachmodellen. Die Ergebnisse zeigen, dass diese Modelle in ihren Denkprozessen eine „Gesellschaft des Denkens“ erzeugen. Hierbei handelt es sich um mehrere simulierte Stimmen mit unterschiedlichen Persönlichkeiten und Fachkenntnissen, die miteinander diskutieren. Agentic Vision: Gemini schreibt sich jetzt eigenen Code, um Bilder besser zu verstehen
Interne Debatten der Reasoning-Modelle
Die Untersuchung von über 8000 Reasoning-Problemen offenbart signifikante Unterschiede zwischen Reasoning-Modellen und herkömmlichen, auf Anweisungen optimierten Modellen. Im Vergleich zu Deepseek-V3 zeigt Deepseek-R1 eine signifikant höhere Anzahl an Frage-Antwort-Sequenzen sowie häufigere Perspektivwechsel. Bei QwQ-32B sind zudem deutlich mehr explizite Konflikte zwischen verschiedenen Standpunkten zu beobachten als beim vergleichbaren Qwen-2.5-32B. Elefanten, Tornados, Hochwasser: Waymos neues KI-Weltmodell simuliert Szenarien, die es real kaum gibt