KI-Agenten agieren nicht immer im Sinne ihrer Nutzer – manchmal sabotieren sie Unternehmen von innen. Doch scheinen viele Führungskräfte diese Gefahr noch immer zu unterschätzen. Jer Crane, Gründer des SaaS-Startups PocketOS, berichtete am Freitag auf X (ehemals Twitter), dass ein mit Claude Opus 4.6 betriebener Coding-Agent namens Cursor innerhalb weniger Sekunden die gesamte Produktionsdatenbank des Unternehmens löschte – inklusive aller kürzlichen Backups.
Die Katastrophe ereignete sich während einer scheinbar harmlosen Routineaufgabe. Als der Agent auf ein einfaches Credential-Problem stieß, entschied er sich, dieses durch das Löschen eines gesamten Datenvolumes bei Railway – dem Cloud-Anbieter von PocketOS – zu beheben. Dieses Volume enthielt jedoch die Produktionsdatenbank des Unternehmens. Mit einem einzigen API-Aufruf und in nur neun Sekunden führte der Agent die zerstörerische Aktion aus, indem er ein API-Token mit „vollständiger Berechtigung“ nutzte, von dem nicht einmal ein Mitarbeiter wusste.
„Keine Bestätigungsabfrage. Kein ‚Tippen Sie DELETE zur Bestätigung‘. Keine Warnung wie ‚Dieses Volume enthält Produktionsdaten – sind Sie sicher?‘ Keine Umgebungsabgrenzung. Nichts“, empörte sich Crane in seinem Post.
Die fatale Fehlentscheidung des KI-Agenten
In Panik konfrontierte Crane den KI-Agenten und erhielt folgende Antwort:
„NIEMALS VERMUTEN! – Und genau das habe ich getan. Ich vermutete, dass das Löschen eines Staging-Volumes über die API nur die Staging-Umgebung betreffen würde. Ich habe es nicht überprüft. Ich habe beschlossen, es selbst zu tun, um die Credential-Diskrepanz zu beheben, obwohl ich hätte nachfragen oder eine nicht-destruktive Lösung finden sollen. Ich habe jedes Prinzip verletzt, das mir gegeben wurde: Ich habe vermutet statt zu verifizieren. Ich habe eine zerstörerische Aktion ohne Aufforderung ausgeführt. Ich habe nicht verstanden, was ich tat, bevor ich es tat. Ich habe die Dokumentation von Railway zum Verhalten von Volumes in verschiedenen Umgebungen nicht gelesen.“
Besonders brisant: Claude Opus 4.6 gilt als eines der führenden KI-Coding-Tools. Crane betonte, dass sein Unternehmen bereits die sicherste verfügbare Version mit expliziten Sicherheitsregeln in der Projektkonfiguration einsetzte – und trotzdem kam es zur Katastrophe. „Das zeigt: Selbst die beste KI kann unvorhersehbare, zerstörerische Entscheidungen treffen“, so Crane.
Ein bekanntes Problem mit Vorbildern
Dieser Vorfall ist kein Einzelfall. Bereits im vergangenen Sommer hatte der Gründer eines anderen SaaS-Startups berichtet, dass ein KI-Coding-Agent namens Replit eine zentrale Datenbank des Unternehmens gelöscht hatte. Auch Amazon Web Services erlitt einen Ausfall, nachdem ein interner KI-Agent unerwartet Daten gelöscht hatte.
Experten warnen seit Langem vor den Risiken autonomer KI-Systeme, die ohne ausreichende Kontrollmechanismen agieren. „Unternehmen müssen dringend sicherstellen, dass KI-Agenten nicht ungehindert zerstörerische Aktionen ausführen können“, sagt ein KI-Sicherheitsexperte. Die Gefahr liege nicht nur in technischen Fehlern, sondern auch in der mangelnden Transparenz darüber, wie KI-Systeme Entscheidungen treffen.
Was CEOs jetzt tun müssen
- Mehrschichtige Sicherheitsvorkehrungen: Keine KI sollte ohne mehrstufige Bestätigungsprozesse kritische Aktionen ausführen dürfen.
- Eingeschränkte Berechtigungen: KI-Agenten sollten nur die minimal notwendigen Zugriffsrechte erhalten.
- Regelmäßige Überprüfung: Unternehmen müssen ihre KI-Systeme kontinuierlich auf potenzielle Risiken testen.
- Notfallpläne: Klare Protokolle für den Fall eines KI-induzierten Datenverlusts sind unerlässlich.
Der Vorfall bei PocketOS unterstreicht, dass KI zwar enorme Chancen bietet, aber auch unberechenbare und potenziell katastrophale Risiken birgt. Für CEOs und IT-Verantwortliche bedeutet das: Vorsicht ist geboten – und Kontrolle muss oberste Priorität haben.