Entwickler, die auf Claude Code zurückgreifen, sahen sich bislang mit einem Problem konfrontiert: Sie mussten entweder jede einzelne Aktion genehmigen oder sämtliche Sicherheitsüberprüfungen deaktivieren. Der neu eingeführte Auto-Modus von Anthropic soll hier eine ausgewogene Lösung bieten.
Claude Code ist in der Lage, Shell-Befehle auszuführen, Dateien zu löschen, Verzeichnisse zu erstellen und Commits auf GitHub zu senden. Standardmäßig fordert das Tool bei jeder potenziell riskanten Handlung um Erlaubnis. Diese Vorgehensweise schützt zwar vor möglichen Schäden, unterbricht jedoch den Arbeitsfluss erheblich. Aus diesem Grund nutzen viele Entwickler die Option „dangerously-skip-permissions“, die alle Sicherheitsprüfungen umgeht und laut Anthropic zu „gefährlichen und destruktiven Ergebnissen“ führen kann. Zudem hat OpenAI in letzter Zeit ähnliche Herausforderungen adressiert.
Der neue Auto-Modus soll dieses Dilemma entschärfen. Vor jeder Aktion wird von einem separaten Klassifikator überprüft, ob der Befehl potenziell schädlich ist. Sichere Aktionen werden automatisch ausgeführt, während riskante blockiert werden. Claude versucht dann, einen alternativen Ansatz zu finden. Sollte dies wiederholt scheitern, also bei drei Blockaden in Folge oder insgesamt zwanzig, wechselt das System zurück zur manuellen Genehmigung. Entwickler können auch Strategien zur Optimierung nutzen, um ihre Arbeitsabläufe zu verbessern.
„`
Bildquelle: ai-generated-gemini