Der renommierte KI-Kritiker Gary Marcus hat sich in einem Blogbeitrag deutlich zu OpenAIs neuem Sprachmodell GPT-5 geäußert. Er bezeichnet den Release als "überfällig, überhyped und unterwältigend" und kritisiert, dass es sich lediglich um eine inkrementelle Verbesserung handelt, die zudem gehetzt wirke. Marcus bemängelt, dass GPT-5 kaum besser sei als frühere Modelle und in einigen Benchmarks sogar schlechter abschneide.
Kritik an GPT-5s Leistung
Marcus hebt hervor, dass GPT-5 trotz der hohen Erwartungen und der von OpenAI-CEO Sam Altman geäußerten Behauptungen, das Modell sei ein "legitimer Experte auf PhD-Niveau in jedem Fach", erhebliche Schwächen aufweist. Er verweist auf Fehler, die kurz nach der Veröffentlichung bekannt wurden, darunter fehlerhafte physikalische Erklärungen im Release-Livestream, falsche Lösungen bei einfachen Schachaufgaben und Missverständnisse in der Bildanalyse. Laut Marcus ist ein System, das nicht innerhalb kurzer Zeit von der Community auf lächerliche Fehler und Halluzinationen überprüft wird, beeindruckend – etwas, das GPT-5 nicht leistet.
Das Problem der "fragilen Illusion"
Ein zentraler Punkt in Marcus‘ Kritik ist die Bestätigung seiner langjährigen These, dass das sogenannte „Chain of Thought“-Schlussfolgern eine "fragile Illusion" sei. Diese Illusion zerfalle, sobald das Modell über seinen Trainingsbereich hinaus belastet wird. Er verweist auf eine aktuelle Untersuchung der Arizona State University, die dieses Problem untermauert. Marcus sieht darin den Grund, warum auch andere große Modelle wie Grok und Gemini bei komplexen Transferaufgaben scheitern. Er argumentiert, dass dies kein Zufall sei, sondern ein prinzipielles Versagen, das er bereits 1998 bei früheren neuronalen Netzen nachgewiesen habe.
Kritik am KI-Diskurs und Lösungsansätze
Marcus nimmt auch den allgemeinen Diskurs in der KI-Branche ins Visier. Er kritisiert Versprechungen zu AGI (Künstliche Allgemeine Intelligenz), selektive Demovideos und mangelnde Transparenz bei Trainingsdaten. Seiner Meinung nach verliere sich die Industrie zu sehr im Marketing anstatt in echter Forschung. Er fordert eine Rückbesinnung auf neurosymbolische Ansätze mit expliziten Weltmodellen. Für Marcus markiert der GPT-5-Start keinen Fortschritt in Richtung AGI, sondern einen Punkt, an dem selbst Tech-Enthusiasten an der Skalierungshypothese zweifeln könnten.