Ex-OpenAI-Forscher: Aktuelle KI-Modelle können keine echte Intelligenz erreichen

Ex-OpenAI-Forscher: Aktuelle KI-Modelle können keine echte Intelligenz erreichen

Jerry Tworek, ehemaliger Forscher bei OpenAI, kritisiert die aktuellen KI-Modelle für ihre Unfähigkeit, aus Fehlern zu lernen. Im Podcast erklärt er, dass dies grundlegende Herausforderungen für die Entwicklung echter Intelligenz darstellt.

Jerry Tworek, ehemaliger Vizepräsident für Forschung bei OpenAI, sieht ein fundamentales Problem in den gegenwärtigen KI-Modellen: Diese sind nicht in der Lage, aus Fehlern zu lernen. „Wenn ein Modell versagt, steht man schnell hilflos da“, äußert Tworek im Podcast Unsupervised Learning. Es existiert kein effektiver Weg für ein Modell, sein Wissen nach einem Fehlschlag zu aktualisieren.

Der Wissenschaftler, der an OpenAIs Reasoning-Modellen wie o1 und o3 mitgewirkt hat, hat das Unternehmen vor kurzem verlassen, um dieses Problem anzugehen. Seine Prognosen zur allgemeinen künstlichen Intelligenz (AGI) hat er nach oben angepasst. „Solange Modelle bei Herausforderungen stagnieren, würde ich es nicht als AGI bezeichnen“, erklärt er. Das Training von KI sei ein „anfälliger Prozess“. Im Gegensatz dazu sei menschliches Lernen stabil und in der Lage, sich selbst zu regulieren. Intelligenz finde stets einen Weg, so Tworek. Diese Herausforderungen in der KI-Entwicklung wurden auch von Ilya Sutskever angesprochen, der betont, dass Lösungen weiterhin unklar bleiben. Zudem fordert Karpathy grundlegende Veränderungen in der Bildung im KI-Zeitalter, um den Anforderungen gerecht zu werden. Auch Terence Tao warnt vor voreiligen Schlüssen bezüglich der Auswirkungen der KI-Entwicklung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like