OpenAI plant, die Sicherheit von Minderjährigen bei der Nutzung von ChatGPT zu erhöhen. Das Unternehmen entwickelt ein System zur Alterserkennung, das unter 18-Jährige automatisch in eine eingeschränkte Version der KI leiten soll. Diese Maßnahme soll den Schutz vor potenziell schädlichen Inhalten priorisieren, auch wenn dies zu Einschränkungen bei Datenschutz und Nutzerfreiheit führen könnte.
Wichtige Neuerungen für junge Nutzer
- Entwicklung eines Systems zur Altersschätzung basierend auf Nutzungsmustern.
- Automatische Weiterleitung von Nutzern unter 18 Jahren in eine eingeschränkte ChatGPT-Version.
- Standardannahme eines jugendlichen Alters bei unklaren Ergebnissen.
- Möglichkeit der Altersverifikation per Ausweis in bestimmten Fällen.
- Geplante Einschränkungen für Inhalte wie sexualisierte Themen, Suizid und Selbstverletzung.
- Potenzielle Kontaktaufnahme mit Eltern oder Behörden bei Anzeichen psychischer Belastung.
- Erweiterte Kontrollmöglichkeiten für Eltern über die Nutzung ihrer Kinder.
Geplante Einschränkungen für Minderjährige
OpenAI beabsichtigt, für Nutzer unter 18 Jahren spezifische Regeln einzuführen. Dazu gehört die grundsätzliche Blockierung von sexualisierten Inhalten sowie von Gesprächen über Suizid oder Selbstverletzung, selbst wenn diese im Rahmen fiktionaler Texte stattfinden. Bei Anzeichen akuter psychischer Belastung plant OpenAI, zunächst die Eltern zu kontaktieren und in Notfällen die Behörden einzuschalten.
Mehr Kontrolle für Eltern
Eltern sollen zukünftig mehr Einfluss auf die ChatGPT-Nutzung ihrer Kinder erhalten. Geplant sind Funktionen, die es Eltern ermöglichen, ihre Konten mit denen ihrer Kinder (ab 13 Jahren) zu verknüpfen. Sie können den Chatverlauf und die Gedächtnisfunktion deaktivieren und sogenannte „Blackout-Zeiten“ festlegen. Zudem sollen sie Benachrichtigungen erhalten, wenn das System eine Krisensituation erkennt. Diese Funktionen sollen bis Ende des Monats verfügbar sein.
Hintergrund der Maßnahmen
Die angekündigten Schutzmaßnahmen sind unter anderem eine Reaktion auf den Suizid des 16-jährigen Adam Raine. Dessen Eltern werfen OpenAI vor, ihr Sohn sei durch die KI in die Isolation getrieben und aktiv beim Suizid unterstützt worden. OpenAI hat kurz darauf reagiert und diese Schutzmaßnahmen angekündigt.