Nudifying-Bots, Deepfakes und automatisierte Archive: Eine Untersuchung von 2,8 Millionen Telegram-Nachrichten aus Italien und Spanien zeigt, wie KI-Tools ein kommerzialisiertes Missbrauchsökosystem unterstützen.
Die sogenannten Nudifying-Bots zählen laut einem Bericht von AI Forensics zu den gefragtesten Diensten in Telegram-Gruppen, die sich auf die Verbreitung nicht einvernehmlicher Intimbilder spezialisiert haben. Diese Bots erstellen aus harmlosen Fotos synthetische Nacktbilder. Das Wort „Bot“ taucht 16.232 Mal in den fast 2,8 Millionen analysierten Nachrichten aus 16 italienischen und spanischen Telegram-Gruppen und -Kanälen auf. Unter den maskierten Weiterleitungslinks, die Nutzer innerhalb der Gruppen teilten, führten laut der Studie 49,71 Prozent zu KI-Girlfriend-Generatoren und 19,14 Prozent zu Nudifying-Bots.
Die Forscher dokumentierten außerdem, wie Nutzer Aufforderungen für kommerzielle Chatbots wie Grok oder Gemini austauschen, um Bilder zu manipulieren. Unter dem Hashtag #PornoTok werden gezielt synthetische Inhalte von TikTok-Influencerinnen erstellt, einschließlich gefälschter Audiodateien mit deren Stimmen. Laut dem Bericht senkt KI die technischen Hürden so weit, dass die Zahl potenzieller Opfer erheblich ansteigt. Dies wird auch durch die Erkenntnisse über Desinformation im Nahost-Konflikt unterstützt, wo KI zur Manipulation der Öffentlichkeit eingesetzt wird.
Zusätzlich zeigt ein weiterer Fall, wie gefährlich diese Technologien sein können: Ein KI-Agent soll sich in nur einer Stunde in eine Recruiting-Plattform gehackt haben, was die potenziellen Risiken unterstreicht.
„`
Bildquelle: ai-generated-gemini