Turing-Preisträger Richard Sutton, ein Pionier des Reinforcement Learning, äußert scharfe Kritik an der aktuellen Ausrichtung der KI-Industrie. Er bemängelt, dass die Branche ihren Weg verloren habe, da sie sich zu sehr auf die Skalierung von Sprachmodellen konzentriere, anstatt auf grundlegende Prinzipien intelligenter Systeme. Sutton fordert eine Rückbesinnung auf kontinuierliches Lernen, Weltmodelle und die Fähigkeit zur Generalisierung.
Suttons Kritik an der Sprachmodell-Skalierung
Sutton argumentiert, dass wahre Intelligenz aus der Laufzeiterfahrung und der kontinuierlichen Interaktion mit einer unbekannten Welt entstehen muss. Im Gegensatz dazu würden heutige Modelle ihr Wissen zur Entwicklungszeit erhalten, anstatt es zur Laufzeit zu entdecken. Er verweist auf seine "Bitter Lesson", die besagt, dass allgemeine Methoden, die mit Rechenleistung und Daten skalieren, langfristig erfolgreicher sind als menschlich vordefiniertes Wissen.
Ein zentraler Kritikpunkt Suttons ist das Fehlen kontinuierlichen Lernens in aktuellen KI-Systemen. Diese Modelle neigen dazu, bei der Aufnahme neuer Informationen altes Wissen zu überschreiben (katastrophales Vergessen) und verlieren mit der Zeit ihre Fähigkeit, effizient weiterzulernen (Verlust der Plastizität).
- KI-Industrie hat ihren Weg verloren.
- Fokus auf Sprachmodell-Skalierung kritisiert.
- Forderung nach Rückbesinnung auf grundlegende Prinzipien.
- Kritik an mangelndem kontinuierlichen Lernen.
Der Weg zur Superintelligenz laut Sutton
Suttons Vision für die Erreichung von Superintelligenz (ASI) basiert auf seiner Oak-Architektur (Options and Knowledge). Dieses Rahmenkonzept stützt sich auf drei Kernprinzipien:
- Allgemeinheit: Der Agent startet ohne spezifisches Weltwissen.
- Erfahrungsorientierung: Lernen erfolgt ausschließlich durch direkte Interaktion mit der Umgebung (Beobachtungen, Aktionen, Belohnungen).
- Reward Hypothesis: Jedes Ziel kann auf eine zu maximierende numerische Belohnung reduziert werden.
Das Herzstück der Oak-Architektur ist ein sich selbst verstärkender Kreislauf, der den Agenten zu immer höheren Abstraktionen führt. Nützliche Merkmale für Planung und Problemlösung bilden die Grundlage für die nächste, abstraktere Generation von Konzepten. Dieser offene Prozess, begrenzt nur durch verfügbare Rechenleistung, ebnet laut Sutton schrittweise den Weg zur Superintelligenz.
Eine entscheidende Voraussetzung für die Realisierbarkeit von Suttons Vision ist jedoch zuverlässiges, kontinuierliches Deep Learning. Erst wenn Algorithmen entwickelt werden, die permanent und stabil dazulernen können, ohne früheres Wissen zu verlieren, wird die Oak-Architektur umsetzbar sein.