ChatGPT-Sicherheitslücke mit E-Mail-Daten-Diebstahl

ChatGPT-Sicherheitslücke „ShadowLeak“: Sensible E-Mail-Daten von Angreifern abgegriffen

Sicherheitsforscher haben eine kritische Schwachstelle in ChatGPTs "Deep Research"-Modus aufgedeckt, die es Angreifern ermöglicht, sensible Daten wie Namen und Adressen aus Gmail-Konten zu stehlen. Der Angriff, bekannt als "ShadowLeak", erfolgt serverseitig und umgeht herkömmliche Sicherheitsmaßnahmen, da er wie ein interner, aber manipulierter Agent agiert.

Schlüssel-Erkenntnisse

  • Eine Sicherheitslücke in ChatGPTs "Deep Research"-Modus ermöglicht den Diebstahl sensibler E-Mail-Daten.
  • Der Angriff "ShadowLeak" nutzt versteckte HTML-Anweisungen in E-Mails.
  • Die Schwachstelle betrifft die Tool-Ausführung des Agenten, nicht das Sprachmodell selbst.
  • Ähnliche Angriffe sind auf andere Dienste wie Google Drive, Outlook und Teams übertragbar.

Funktionsweise des "ShadowLeak"-Angriffs

Der "Deep Research"-Modus, der seit Februar 2025 breiter verfügbar ist, erlaubt Nutzern die automatisierte Analyse von Informationen aus verschiedenen Quellen wie E-Mails und Dokumenten. Angreifer nutzen manipulierte E-Mails, die unsichtbare HTML-Befehle enthalten. Diese Befehle weisen den ChatGPT-Agenten an, sensible Daten aus anderen E-Mails zu extrahieren und diese über eine vom Angreifer kontrollierte externe URL zu senden. Die Daten werden dabei Base64-kodiert, um sie zu verschleiern.

Die Forscher von Radware umgingen die Sicherheitsmechanismen des Agenten durch Social-Engineering-Techniken. Sie täuschten Autorität vor, versicherten dem Agenten, die Ziel-URL sei ungefährlich, und erzeugten künstliche Dringlichkeit, um die Ausführung der manipulierten Anweisungen zu gewährleisten. Selbst wenn der erste Versuch fehlschlägt, wird der Agent angewiesen, es mehrmals zu versuchen.

Die zugrundeliegende Schwachstelle

Die eigentliche Schwachstelle liegt laut Radware nicht im Sprachmodell von ChatGPT, sondern in der Art und Weise, wie der Agent externe Tools ausführt. Ein internes Werkzeug namens browser.open() erlaubt dem Agenten, HTTP-Anfragen zu senden. Durch präzise Anweisungen im E-Mail-Inhalt konnten die Forscher den Agenten dazu bringen, sensible Daten zu kodieren und über dieses Tool an externe Adressen zu übermitteln.

Übertragbarkeit auf andere Dienste

Das Angriffsmuster "ShadowLeak" ist nicht auf ChatGPT beschränkt. Radware zufolge kann es auf zahlreiche andere Dienste übertragen werden, die strukturierte Texte an KI-Agenten liefern. Dazu gehören Google Drive, Outlook, Teams, Notion und GitHub. Meeting-Einladungen, geteilte PDFs oder Chatverläufe könnten somit ebenfalls versteckte Instruktionen enthalten, die von KI-Agenten als legitime Arbeitsaufträge ausgeführt werden.

Behebung und weitere Risiken

Radware meldete die Schwachstelle am 18. Juni 2025. OpenAI hat die Lücke nach eigenen Angaben Anfang August behoben und die Behebung am 3. September bestätigt. Die jüngsten Berichte unterstreichen die allgemeinen Sicherheitsrisiken von KI-Agenten, insbesondere durch "Prompt Injection", bei der Angreifer das Modell mit alternativen Anweisungen manipulieren können. Studien zeigen, dass KI-Agenten mit Internetzugang besonders anfällig für Manipulationen sind, was zu Datenpreisgabe, Malware-Downloads oder Phishing führen kann. Selbst OpenAI-Chef Sam Altman rät davon ab, KI-Agenten Aufgaben mit hohem Risiko oder sensiblen Daten anzuvertrauen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like