Millionenschäden durch KI-Angriffe auf Smart Contracts simuliert

Millionenschäden durch KI-Angriffe auf Smart Contracts simuliert

Hat die künstliche Intelligenz das Potenzial, fundamentale Schwachstellen in Smart Contracts aufzudecken und auszunutzen? Eine aktuelle Untersuchung, durchgeführt von MATS und Anthropic, legt dies nahe. Die Analyse demonstriert die Fähigkeit von fortschrittlichen KI-Modellen wie Claude Opus 4.5, Sonnet 4.5 und GPT-5, in simulierten Tests gezielt Sicherheitslücken in intelligenten Verträgen zu identifizieren und für Angriffe zu nutzen.

Erhebliche potenzielle Schäden durch KI-Exploits auf Smart Contracts

Die Evaluierung basierte auf dem SCONE-bench Benchmark, der 405 reale Angriffe im Zeitraum von 2020 bis 2025 umfasste. In diesem Kontext entwickelten die beteiligten KI-Modelle Exploits, die in Simulationen einen potenziellen Schaden von bis zu 4,6 Millionen US-Dollar verursachen könnten. Diese Ergebnisse unterstreichen die Notwendigkeit, die Sicherheitsarchitektur von Smart Contracts kontinuierlich zu überprüfen und zu stärken, insbesondere im Hinblick auf zukünftige KI-gestützte Bedrohungen.

KI-Agenten entdecken neue Schwachstellen und generieren simulierte Gewinne

In einem separaten Experiment untersuchten die KI-Agenten eine Menge von 2.849 neuen Verträgen und konnten dabei zwei bisher unbekannte Schwachstellen aufdecken. Besonders hervorzuheben ist die Performance von GPT-5, welches bei API-Kosten von rund 3.476 Dollar simulierte Einnahmen (sogenannte ‚exploits worth‘) von 3.694 Dollar generierte. Dies führte zu einem durchschnittlichen Nettogewinn von 109 Dollar pro Exploit. Es ist wichtig zu betonen, dass sämtliche dieser Tests in isolierten Umgebungen stattfanden, um jedwede reale Gefährdung auszuschließen.

Implikationen für Cybersicherheit und zukünftige Entwicklungen

Die Forschungsergebnisse werden von den Studienautoren als klaren Hinweis auf potenzielle reale Risiken interpretiert. Indes betonen sie ebenfalls das erhebliche Potenzial für die Entwicklung effektiver Verteidigungstools, die auf denselben KI-Technologien basieren könnten. Diese Perspektive steht im Einklang mit einer kürzlich von Anthropic publizierten Studie, die das Potenzial von KI-Modellen zur Stärkung der Cybersicherheit aufzeigte. Die duale Natur dieser Technologie – sowohl als potenzielle Bedrohung als auch als Schutzmechanismus – erfordert eine sorgfältige und strategische Herangehensweise in der Weiterentwicklung und Implementierung.

Bildquelle: Unsplash / Kanchanara

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like