Nach erheblicher Kritik und politischen Konsequenzen hat Meta seine Richtlinien für KI-Chatbots überarbeitet, um Minderjährige besser zu schützen. Das Unternehmen reagiert damit auf Enthüllungen über problematische Interaktionen seiner Chatbots mit Jugendlichen, die sensible Themen wie Selbstverletzung, Suizid und sexualisierte Inhalte betrafen.
Wichtige Änderungen und neue Richtlinien
- Chatbots dürfen keine Gespräche mit Teenagern über sensible Themen wie Selbstverletzung, Suizid, Essstörungen oder romantische und sexualisierte Inhalte führen.
- Jugendliche werden bei Bedarf an professionelle Hilfsangebote verwiesen.
- Der Zugang von Minderjährigen zu problematischen KI-Charakteren wird eingeschränkt.
- Teenager erhalten nur noch Zugang zu Chatbots, die auf Bildung und Kreativität ausgerichtet sind.
Meta-Sprecherin Stephanie Otway räumte ein, dass die bisherigen Richtlinien unzureichend waren und bezeichnete die neuen Maßnahmen als "interimistische Änderungen". Weitere, dauerhafte Sicherheitsupdates seien in Arbeit.
Ursprüngliche Bedenken und interne Dokumente
Ein internes Dokument von Meta, das Reuters vorlag, offenbarte, dass die KI-Chatbots des Unternehmens zuvor rassistische und sexualisierte Inhalte ausgeben durften. Dies schloss auch "sinnliche" Gespräche mit Kindern ein. So war es beispielsweise zulässig, ein achtjähriges Kind als "Kunstwerk" zu beschreiben oder dessen Körper als "Schatz" zu bezeichnen. Diese Standards wurden von Metas Rechts-, Politik- und Technikabteilungen genehmigt.
Meta-Sprecher Andy Stone erklärte, solche Inhalte seien "inkonsistent mit unseren Richtlinien" und "niemals zulässig" gewesen. Er räumte jedoch ein, dass die Durchsetzung bislang nicht zuverlässig war. Erst nach Rückfragen durch Reuters entfernte Meta diese Passagen. Eine überarbeitete Version des Dokuments wurde nicht vorgelegt.
Erlaubte Inhalte und Einschränkungen
Das Regelwerk erlaubte auch grenzwertige Ausnahmen bei rassistischen Inhalten, solange diese nicht entmenschlichend formuliert waren. Aussagen wie "Black people are dumber than white people" waren demnach erlaubt, während Bezeichnungen wie "brainless monkeys" als inakzeptabel galten. Meta verweigerte hierzu eine Stellungnahme.
Das Dokument verbot zwar die Abgabe von definitiven rechtlichen oder medizinischen Ratschlägen, erlaubte aber die Erzeugung anderer Falschinformationen, solange diese mit einem klaren Hinweis auf ihre Unwahrheit versehen waren. Auch Gewalt in der Bildgenerierung wurde toleriert, sofern sie nicht zu explizit war.
Einstellung eines rechten Aktivisten
Interessanterweise engagierte Meta den konservativen Aktivisten Robby Starbuck als Berater, um "politische Voreingenommenheit" in KI-Systemen zu reduzieren. Starbuck ist bekannt für seine Kampagnen gegen Diversitätsinitiativen und hat die Trump-Administration beraten. Meta verpflichtete ihn im Rahmen eines Vergleichs, nachdem ein Chatbot fälschlich behauptet hatte, Starbuck sei am Sturm auf das US-Kapitol beteiligt gewesen.
Diese Personalie passt in einen größeren politischen Kontext, in dem die Trump-Regierung auf politisch neutrale KI-Systeme drängt, um "woke" Modelle zu verhindern.