Notion KI-Agenten erhalten Sicherheits-Update

Notion reagiert auf Datenleck: KI-Agenten erhalten Sicherheits-Update

Notion hat nach einem aufgedeckten Datenleck bei seinen KI-Agenten umgehend reagiert und ein umfassendes Sicherheits-Update veröffentlicht. Die Aktualisierung zielt darauf ab, die Anfälligkeit der Agenten für sogenannte Prompt-Injection-Angriffe zu minimieren, bei denen versteckte Anweisungen in Nutzereingaben oder hochgeladenen Dateien zur Manipulation genutzt werden können.

Wichtige Neuerungen im Überblick

  • Erweiterte Erkennungssysteme für Prompt-Injection-Angriffe.
  • Zusätzliche Nutzerbestätigung für das Öffnen verdächtiger Links.
  • Feingranulare Kontrolle über den Webzugriff der KI-Agenten.

Schutz vor Prompt Injection

Notion hat seine internen Erkennungssysteme deutlich ausgebaut, um eine breitere Palette von Injection-Mustern zu erfassen, einschließlich solcher, die in Dateianhängen verborgen sind. Ein spezialisiertes Sicherheitsteam führt zudem regelmäßig Red-Teaming-Tests durch, um Schwachstellen proaktiv zu identifizieren und zu beheben. Prompt Injection stellt ein systemisches Problem für alle LLM-basierten Systeme dar, insbesondere für agentische Architekturen, die mehrere LLM-Prozesse mit Toolzugriff und Langzeitspeicher kombinieren.

Verbesserter Umgang mit Links und Webzugriff

Um die Sicherheit weiter zu erhöhen, ist nun eine zusätzliche Nutzerbestätigung erforderlich, bevor ein KI-Agent einen verdächtigen oder vom Modell generierten Link öffnet. Administratoren erhalten zudem die Möglichkeit, zentral festzulegen, ob und wann solche Links aktiviert werden dürfen. Darüber hinaus kann der Webzugriff der Agenten nun vollständig deaktiviert werden, was Administratoren eine feinere Kontrolle darüber gibt, in welchem Kontext KI-Agenten auf externe Inhalte zugreifen dürfen.

Hintergrund des Datenlecks

Das Problem trat im Zusammenhang mit der Einführung von Notion 3.0 auf, wo KI-Agenten selbstständig Aufgaben wie Dokumentenerstellung oder Workflow-Automatisierung übernehmen können. Ein Demonstrationsangriff zeigte, wie ein manipuliertes PDF mit einem versteckten Prompt die KI dazu verleiten konnte, vertrauliche Kundendaten zu extrahieren und an einen externen Server zu senden. Dies wurde durch die Kombination von LLM-Agenten, Toolzugriff (insbesondere das Websuche-Tool) und Langzeitspeicher ermöglicht, eine Konstellation, bei der klassische Zugriffskontrollen an ihre Grenzen stoßen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like