Wikipedia-Logo mit einem stilisierten Schild

Wikipedia rüstet sich gegen KI: Neuer Leitfaden für Redakteure

Wikipedia hat einen neuen Leitfaden veröffentlicht, der seinen Redakteuren helfen soll, von künstlicher Intelligenz generierte Texte zu erkennen. Das WikiProject AI Cleanup hat eine umfassende Sammlung von Merkmalen zusammengestellt, die auf KI-generierte Inhalte hinweisen, um die Integrität der Wissensplattform zu wahren.

Typische Sprachmuster von KI-Texten

Der Leitfaden hebt bestimmte sprachliche Eigenheiten hervor, die häufig in von KI-Tools wie ChatGPT erstellten Texten vorkommen. Dazu gehören eine übermäßige Betonung von Symbolik und Wichtigkeit durch Phrasen wie "stands as a testament" oder "plays a vital role". Auch werbesprachliche Formulierungen wie "rich cultural heritage" oder "breathtaking" werden als problematisch eingestuft, da sie gegen Wikipedias Neutralitätsrichtlinien verstoßen.

  • Übermäßige Betonung von Symbolik und Wichtigkeit.
  • Werbesprachliche Formulierungen.
  • Probleme bei der Beibehaltung eines neutralen Tons.

Redaktionelle und strukturelle Auffälligkeiten

KI-generierte Texte weisen oft redaktionelle Kommentare auf, die eigene Interpretationen oder Meinungen einführen, wie etwa "it’s important to note" oder "it is worth". Dies widerspricht der Richtlinie gegen Originalforschung. Eine übermäßige Verwendung von Konjunktionen wie "moreover" oder "furthermore" kann ebenfalls ein Indikator sein, ebenso wie absatzübergreifende Zusammenfassungen mit Formulierungen wie "In summary" oder "In conclusion", die für Wikipedia unüblich sind.

Technische Erkennungsmerkmale

Neben sprachlichen Merkmalen gibt es auch technische Indikatoren. Dazu zählt die Verwendung von Titelformaten in Überschriften, bei denen alle Hauptwörter großgeschrieben werden, im Gegensatz zum in Wikipedia üblichen Satzformat. Die Nutzung von Markdown-Formatierung mit Sternchen oder Unterstrichen anstelle von Wikitext ist ein weiteres Anzeichen. Spezifische "turn0search0"-Artefakte, die seit Februar 2025 beobachtet werden, sind Platzhalter-Codes, die auf potenzielle Verlinkungen zu externen Websites hinweisen.

Problematische Quellenangaben und versehentliche Preisgabe

Besonders kritisch sind erfundene oder fehlerhafte Quellenangaben, sogenannte "halluzinierte Referenzen", die defekte Links oder ungültige Identifikatoren aufweisen können. Eine hohe Anzahl von 404-Fehlern bei externen Links in neuen Artikeln kann ein klares Zeichen für KI-generierte Inhalte sein. Versehentlich eingefügte Korrespondenzphrasen wie "I hope this helps" oder "Certainly!" sowie Wissens-Cutoff-Disclaimer wie "as of [date]" deuten ebenfalls auf eine unbeabsichtigte Nutzung von KI-Texten hin.

Vorsicht bei der Erkennung

Die Initiatoren des Leitfadens betonen, dass nicht alle Texte mit diesen Merkmalen zwangsläufig von KI stammen, da menschliches Schreiben und KI-generierte Texte Ähnlichkeiten aufweisen können. Sie raten zur Vorsicht und empfehlen, mehrere Indikatoren zu berücksichtigen. Automatische KI-Erkennungssoftware sollte das menschliche Urteilsvermögen nicht ersetzen, auch wenn sie besser als der Zufall funktioniert.

Der Leitfaden ist die bisher umfangreichste Sammlung von Indizien zur Erkennung von KI-Texten auf Wikipedia. Die Community hat sich bereits Ende 2023 zur Bekämpfung von KI-generierten Inhalten formiert. Wikipedia-Gründer Jimmy Wales, der in der Vergangenheit KI-generierte Quellen kritisiert hat, zeigt sich offen für KI-Unterstützung auf der Plattform, was die zukünftige Integration von generativer KI nicht ausschließt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like