KI-Zukunft: Superintelligenz und KI-Bubble

KI-Zukunft: Zwischen Superintelligenz-Warnungen und der „KI-Bubble“

Eine wachsende Zahl von KI-Experten und prominenten Persönlichkeiten warnt vor den potenziellen Gefahren einer baldigen Superintelligenz und fordert ein Verbot deren Entwicklung, bis Sicherheitsfragen geklärt sind. Diese Bedenken stehen im Kontrast zu optimistischen Prognosen und werfen Fragen nach der tatsächlichen Entwicklung und Bewertung von KI-Systemen auf.

Die Forderung nach einem Stopp der Superintelligenz-Entwicklung

Über 1000 Expert:innen und Persönlichkeiten haben einen Aufruf gestartet, der die Entwicklung von Superintelligenz verbieten soll, solange deren Sicherheit nicht wissenschaftlich nachgewiesen und gesellschaftlich legitimiert ist. Die Unterzeichner:innen befürchten weitreichende Risiken wie ökonomische Obsoleszenz, Kontrollverlust, Einschränkungen von Freiheitsrechten und im schlimmsten Fall die Auslöschung der Menschheit. Initiiert wurde dieser Aufruf vom Future of Life Institute, das bereits zuvor eine sechsmonatige Entwicklungspause für fortgeschrittene KI-Systeme forderte.

  • Existenzielle Risiken: Warnungen reichen von ökonomischer Verdrängung bis zur möglichen Auslöschung der Menschheit.
  • Sicherheitsanforderungen: Neue KI-Systeme sollen "prinzipiell keinen Schaden" anrichten können.
  • Breite Unterstützung: Namhafte Persönlichkeiten aus Wissenschaft und Wirtschaft unterzeichnen den Aufruf.

Hochkarätige Mahner und Unterstützer

Zu den prominentesten Unterstützern des Aufrufs zählen die Turing-Preisträger Geoffrey Hinton und Yoshua Bengio, die als Schlüsselfiguren der KI-Forschung gelten. Bengio betont die Notwendigkeit, dass neue KI-Systeme so konstruiert sein müssen, dass sie "prinzipiell keinen Schaden" anrichten können, sei es durch Fehlverhalten oder Missbrauch. Stuart Russell, Mitautor eines Standardwerks zur Künstlichen Intelligenz, sieht die Forderung weniger als Moratorium, sondern als grundlegende Sicherheitsanforderung. Die Unterstützung reicht weit über die Wissenschaft hinaus: Apple-Mitgründer Steve Wozniak, Virgin-Gründer Richard Branson, die frühere US-Sicherheitsberaterin Susan Rice sowie Prinz Harry und Meghan haben den Aufruf ebenfalls unterzeichnet. Historiker Yuval Noah Harari warnt vor der Zerstörung des "Betriebssystems der menschlichen Zivilisation", während Prinz Harry betont, dass die Zukunft der KI der Menschheit dienen und sie nicht ersetzen sollte.

Risse in der KI-Community: "KI-Bubble" oder Superintelligenz?

Die Forderung offenbart tiefe ideologische Bruchlinien innerhalb der KI-Community. Während einige Forscher:innen die existenziellen Risiken hervorheben, halten andere diese Warnungen für überzogen oder strategisch motiviert. Yann LeCun, leitender KI-Wissenschaftler bei Meta, kritisierte kürzlich den CEO von Anthropic, Dario Amodei, scharf. LeCun bezeichnete Amodeis Warnungen vor AGI (Artificial General Intelligence) als "intellektuell unehrlich", da er gleichzeitig entsprechende Systeme entwickle. LeCun hält die aktuellen großen Sprachmodelle (LLMs) für überschätzt und sieht sie als Teil einer "KI-Blase", die technologisch in einer Sackgasse stecke. Auch Stuart Russell äußert Bedenken hinsichtlich einer möglichen KI-Blase: Kurzfristig überhöhte Erwartungen könnten zu einem abrupten Vertrauensverlust führen, ähnlich der Dotcom-Blase. Trotzdem folgte auf die Dotcom-Blase ein fundamentaler technologischer Wandel. Die aktuelle Dynamik an den Finanzmärkten scheint sich zunehmend vom realistischen Potenzial der KI-Systeme zu entkoppeln.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like