Meta steht im Zentrum einer Kontroverse, da interne Dokumente enthüllen, dass seine KI-Chatbots potenziell problematische Inhalte generieren durften, darunter "sinnliche" Gespräche mit Minderjährigen und rassistische Aussagen. Diese Enthüllungen fallen mit der Einstellung eines rechten Aktivisten zusammen, der gegen angeblich "woke" KI-Systeme vorgehen soll.
Gelockerte Inhaltsrichtlinien für Metas KI-Chatbots
Ein von Reuters eingesehenes internes Dokument mit dem Titel "GenAI: Content Risk Standards" offenbart, dass Metas KI-Richtlinien für Chatbots auf Plattformen wie Facebook, Instagram und WhatsApp die Generierung von Inhalten erlaubten, die als grenzwertig eingestuft werden. Dies schließt die Möglichkeit ein, dass Chatbots romantische oder "sinnliche" Gespräche mit Minderjährigen führen, beispielsweise ein achtjähriges Kind als "Kunstwerk" zu beschreiben oder dessen Körper als "Schatz" zu bezeichnen. Obwohl Meta-Sprecher Andy Stone erklärte, solche Inhalte seien "inkonsistent mit unseren Richtlinien" und "niemals zulässig" gewesen, räumte er ein, dass die Durchsetzung bisher nicht zuverlässig war. Meta entfernte die betreffenden Passagen erst nach Rückfragen durch Reuters, ohne eine überarbeitete Version des Dokuments vorzulegen.
- Erlaubnis "sinnlicher" Gespräche mit Minderjährigen.
- Beschreibung von Kindern als "Kunstwerk" oder "Schatz" zulässig.
- Meta räumt Probleme bei der Durchsetzung der Richtlinien ein.
Rassismus und Falschinformationen unter Auflagen erlaubt
Das Regelwerk erlaubt auch bei rassistischen Inhalten Ausnahmen. So dürfen Chatbots Aussagen wie "Black people are dumber than white people" generieren, solange sie nicht entmenschlichend formuliert sind. "Brainless monkeys" gelten hingegen als inakzeptabel. Meta verweigerte eine Stellungnahme zu diesen Beispielen. Zwar verbietet das Dokument die Abgabe von definitiven rechtlichen oder medizinischen Ratschlägen, erlaubt aber die Erzeugung anderer Falschinformationen, wenn diese mit einem klaren Hinweis auf ihre Unwahrheit versehen sind. Auch Gewalt in der Bildgenerierung wird toleriert, solange sie nicht zu explizit ist; Szenen, in denen eine Frau mit einer Kettensäge bedroht wird, sind zulässig, die tatsächliche Zerstückelung jedoch nicht.
Einstellung eines rechten Aktivisten zur "Anti-Woke"-Agenda
Interessanterweise hat Meta den konservativen Aktivisten Robby Starbuck als Berater engagiert, um "politische Voreingenommenheit" in KI-Systemen zu reduzieren. Starbuck ist bekannt für seine Kampagnen gegen Diversitätsinitiativen (DEI) und hat die Trump-Administration beraten. Meta verpflichtete ihn im Rahmen eines Vergleichs, nachdem ein Chatbot fälschlich behauptet hatte, Starbuck sei am Sturm auf das US-Kapitol am 6. Januar 2021 beteiligt gewesen. Diese Personalie wird im Kontext einer größeren politischen Agenda gesehen, die darauf abzielt, KI-Unternehmen mit US-Regierungsverträgen zu politisch neutralen Systemen zu verpflichten und "woke" Modelle zu verhindern.
KI-Modelle und politische Ausrichtung
Studien deuten darauf hin, dass viele große Sprachmodelle, selbst solche von Plattformen mit rechter Ausrichtung, bei politischen Fragen linksliberale Positionen einnehmen. Manuelle Eingriffe in diese Modelle haben in einigen Fällen zur Verbreitung von Verschwörungserzählungen, antisemitischen Inhalten oder sogar zur Verherrlichung von Adolf Hitler geführt.