Besorgter Wissenschaftler blickt auf bedrohliche Technologie.

KI-Experte fordert weltweites Verbot: „Wenn es jemand baut, sterben wir alle“

KI-Sicherheitsexperte Eliezer Yudkowsky schlägt Alarm und fordert einen global bindenden Vertrag zur Stilllegung von KI-Systemen. Er hält alle anderen Regulierungsversuche, wie Sicherheitsprotokolle oder Moratorien, für nutzlos und lediglich "Trostpreise auf dem Weg zur Katastrophe". Seine radikale Analyse besagt, dass jede Superintelligenz, die mit heutigen Methoden entwickelt wird, unweigerlich zum Untergang der Menschheit führen wird.

Radikale Forderung nach globalem KI-Verbot

Yudkowsky, Mitgründer des Machine Intelligence Research Institute (MIRI) und eine prägende Figur der Rationalisten-Szene, vertritt die Ansicht, dass nur ein internationaler Vertrag, der die Abschaltung von KI-Systemen gesetzlich vorschreibt, als politischer Erfolg in der KI-Governance gewertet werden kann. Er bezeichnet Maßnahmen wie Red-Teaming, Interpretierbarkeit oder Model-Evaluations als Illusionen, die vom eigentlichen Ziel ablenken.

  • KI-Sicherheitsexperte Eliezer Yudkowsky fordert ein weltweites Verbot von KI-Systemen.
  • Er betrachtet alle anderen Regulierungsversuche als wirkungslos.
  • Yudkowsky glaubt, dass jede Superintelligenz zum Untergang der Menschheit führt.

Ablehnung von Zeitplänen und Sicherheitsbemühungen

Der Experte kritisiert die Fokussierung auf Zeitpläne und Wahrscheinlichkeiten bei der KI-Risikobewertung. Er plädiert für sofortiges Handeln, unabhängig davon, wann ein KI-Durchbruch erwartet wird. Auch die Idee, dass Unternehmensethik oder eine "gute" Firmenkultur einen Unterschied machen könnten, lehnt er ab. Für Yudkowsky ist das Problem strukturell: Sobald KI-Systeme eine bestimmte Fähigkeitsschwelle überschreiten, sei das Verhalten der Betreiber irrelevant.

Superintelligenz als Totalrisiko

Die Grundlage für Yudkowskys kompromisslose Haltung ist sein Risikomodell, das davon ausgeht, dass jede Superintelligenz, die mit heutigen Methoden entwickelt wird, zum Untergang der Menschheit führt. Er vergleicht die Situation mit der Physik, wo grundlegende Theorien über das Fallen von Steinen durch neuere Entdeckungen nicht ungültig gemacht wurden. Yudkowskys Position stellt einen normativen Stresstest für die KI-Governance dar: Wer existenzielle Risiken (X-Risiken) ernst nimmt, muss auch die Abschaltung als politisches Ziel akzeptieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like