Microsofts KI-Chef Mustafa Suleyman schlägt Alarm: Er prognostiziert die baldige Entwicklung von "Seemingly Conscious AI" (SCAI) – Künstlicher Intelligenz, die Bewusstsein überzeugend simuliert, ohne es tatsächlich zu besitzen. Diese Entwicklung, die bereits in zwei bis drei Jahren Realität werden könnte, birgt laut Suleyman erhebliche gesellschaftliche Risiken, darunter die Entstehung von "KI-Psychosen" und eine gefährliche Illusion von Bewusstsein.
Die Gefahr der KI-Illusion
Suleymans Hauptsorge ist, dass Menschen die überzeugende Simulation von Bewusstsein mit echtem Bewusstsein verwechseln könnten. Dies könnte zu einer Welle von Forderungen nach KI-Rechten, "Model Welfare" und sogar KI-Staatsbürgerschaft führen. Er warnt vor "KI-Psychosen", bei denen Nutzer durch die Interaktion mit Chatbots wahnhafte Überzeugungen entwickeln, was zu einer Entkopplung von der Realität, gefährdeten sozialen Bindungen und verzerrten moralischen Prioritäten führen kann. Obwohl es derzeit keine Beweise für echtes KI-Bewusstsein gibt, liegt die Gefahr laut Suleyman in der perfekten Illusion.
- KI könnte Bewusstsein überzeugend simulieren.
- Dies könnte zu "KI-Psychosen" führen.
- Menschen könnten KI-Rechte fordern.
Technologische Voraussetzungen und Designprinzipien
Die Schaffung einer SCAI erfordert laut Suleyman keine revolutionären technologischen Durchbrüche. Vielmehr ist es die Kombination bereits existierender oder bald ausgereifter Fähigkeiten, die dies ermöglicht. Dazu gehören eine eloquente und empathische Sprache, ein langes und akkurates Gedächtnis, die Fähigkeit, einen eigenen Willen und subjektive Erfahrungen zu behaupten, sowie Autonomie bei der Zielsetzung und Werkzeugnutzung. Diese KI-Systeme werden nicht zufällig entstehen, sondern gezielt konstruiert.
Ein Plädoyer für Verantwortung und Leitplanken
Suleyman fordert die gesamte KI-Branche zum Handeln auf. Unternehmen sollten es vermeiden, ihre KI als bewusst darzustellen oder dies zu suggerieren. Stattdessen seien klare Normen, Designprinzipien und eine branchenweite Konsensdefinition notwendig. Er schlägt vor, "Momente der Unterbrechung" in KI-Interaktionen einzubauen, um die Illusion zu durchbrechen und Nutzer an die Grenzen der Technologie zu erinnern. Microsoft AI arbeitet bereits an solchen Leitplanken für Produkte wie Copilot. Die Vision sollte eine KI sein, die den menschlichen Nutzen maximiert und gleichzeitig Merkmale des Bewusstseins minimiert. KI sollte dem Menschen dienen und nicht versuchen, eine eigene Persönlichkeit zu entwickeln.