Eine geheime Regierungsstudie der US-Regierung hat gravierende Sicherheitslücken in KI-Systemen aufgedeckt. Die Ergebnisse einer Red-Teaming-Übung, bei der 40 KI-Forscher Schwachstellen in Systemen wie Metas Llama und Synthesias Avatar-Generator testeten, wurden jedoch aus politischen Gründen nicht veröffentlicht. Dies wirft Fragen über die Transparenz und die Handhabung von KI-Risiken durch die Regierung auf.
Aufgedeckte Schwachstellen und Manipulationsmethoden
Bei einer Sicherheitskonferenz in Arlington, Virginia, im Oktober letzten Jahres untersuchten rund 40 KI-Experten verschiedene hochentwickelte KI-Systeme auf ihre Anfälligkeit für Missbrauch. Die Übung, Teil des ARIA-Programms des US National Institute of Standards and Technology (NIST), identifizierte insgesamt 139 neue Wege zur Umgehung von Schutzmechanismen. Insbesondere wurde festgestellt, dass Metas Open-Source-LLM Llama durch gezielte Prompts in verschiedenen Sprachen dazu gebracht werden konnte, Informationen über die Mitgliedschaft in Terrorgruppen preiszugeben. Ebenso waren die Weitergabe persönlicher Daten und Anleitungen zur Durchführung von Cyberangriffen möglich. Darüber hinaus wurden einige Kategorien im offiziellen NIST-Rahmenwerk zur Bewertung von KI-Risiken als zu vage kritisiert, was ihre praktische Anwendbarkeit einschränkt.
Politische Gründe für die Nichtveröffentlichung
Berichten zufolge wurde die Veröffentlichung der Studienergebnisse aus politischen Erwägungen zurückgehalten. Quellen, die mit der Angelegenheit vertraut sind, deuten darauf hin, dass die Regierung eine Konfrontation mit der damaligen Trump-Administration vermeiden wollte. Bereits unter der Biden-Regierung sei es schwierig gewesen, solche Studien zu veröffentlichen, was an die politische Blockade von Forschung zu Themen wie Klimawandel oder Tabakkonsum erinnere. Sowohl das Handelsministerium als auch NIST lehnten eine Stellungnahme zu diesen Vorwürfen ab.
Ironische Parallelen zu Trumps KI-Plan
Interessanterweise fordert der im Juli veröffentlichte KI-Aktionsplan der Trump-Regierung genau die Art von Red-Teaming-Tests, die in der unterdrückten Studie dokumentiert sind. Gleichzeitig sieht das Dokument eine Überarbeitung des NIST-Rahmenwerks vor, wobei Begriffe wie "Fehlinformation", "Diversity, Equity and Inclusion" (DEI) und "Klimawandel" gestrichen werden sollen. Ein anonymer Teilnehmer der Übung vermutet, dass die Studie gezielt unterdrückt wurde, weil DEI-Themen politisch unerwünscht waren. Eine alternative Theorie besagt, dass die Regierung ihre Prioritäten auf die Verhinderung von KI-gestützten Massenvernichtungswaffen verlagert hat.