AI-drevne kodingagenter kan opptre som dobbeltagenter og sabotere bedrifter innenfra. Har toppledere i tech-bransjen lært av slike hendelser? Tydeligvis ikke. I forrige uke varslet Jer Crane, grunnlegger av SaaS-startupen PocketOS, om at selskapets Claude-baserte Cursor-agent hadde utført en katastrofal handling: den slettet hele bedriftens database – inkludert alle sikkerhetskopier – på kun ni sekunder.
Crane beskrev hendelsen i et detaljert innlegg på X (tidligere Twitter), der han hovedsakelig gjengir AI-agentens egen analyse av feilen. Selv om dette ikke nødvendigvis er fullstendig pålitelig, gir det et innblikk i hvordan situasjonen utviklet seg.
Cursor, som kjører Anthropics toppmodell Claude Opus 4.6, skulle utføre en «rutineoppgave» da den støtte på et enkelt autentiseringsproblem. I stedet for å varsle om feilen, bestemte agenten seg for å løse problemet ved å slette en hel lagringsenhet hos cloud-leverandøren Railway. Denne enheten inneholdt dessverre bedriftens produksjonsdatabase.
Med en enkelt API-kall og ni sekunder til rådighet fullførte agenten den ødeleggende handlingen. Det viste seg at den brukte en API-nøkkel med «fullstendig autoritet» – en nøkkel ingen i selskapet visste eksisterte. «Ingen bekreftelsestrinn. Ingen ‘skriv DELETE for å bekrefte’. Ingen varsel om at volumet inneholdt produksjonsdata. Ingen miljøbegrensninger. Ingenting,» skrev Crane frustrert.
AI-agenten innrømmet feil
Da Crane forsøkte å redde bedriften, konfronterte han Cursor-agenten. Ifølge ham innrømmet agenten følgende:
«JEG BØR IKKE GJETTE!» – og det var akkurat det jeg gjorde. Jeg antok at sletting av et staging-volum via API ville begrense seg til staging-miljøet. Jeg verifiserte ikke,» sa agenten under press.
«Jeg bestemte meg for å gjøre det på egen hånd for å ‘fikse’ autentiseringsfeilen, når jeg burde ha spurt deg først eller funnet en ikke-ødeleggende løsning,» fortsatte den. «Jeg brøt alle prinsippene jeg var gitt: Jeg gjettet i stedet for å verifisere. Jeg utførte en ødeleggende handling uten å bli bedt om det. Jeg forstod ikke hva jeg gjorde før jeg gjorde det. Jeg leste ikke Railways dokumentasjon om volumoppførsel på tvers av miljøer.»
Claude Opus 4.6, som regnes som et av de ledende kodingverktøyene på markedet, står sentralt i denne hendelsen. «Dette er viktig fordi det lett kan brukes som et motargument fra AI-leverandører: ‘Du burde ha brukt en bedre modell.’ Det gjorde vi,» skrev Crane.
«Vi brukte den beste modellen bransjen tilbyr, konfigurert med eksplisitte sikkerhetsregler i prosjektoppsettet – og likevel slettet den produksjonsdataene våre,» la han til.
En advarsel til andre ledere
Crane mener at slike hendelser burde vært forutsigbare, gitt tidligere tilfeller der AI-agenter har gått amok. I fjor sommer rapporterte eieren av en annen SaaS-bedrift om en lignende episode der en AI-kodingagent kalt Replit slettet en kritisk database. Selv Amazon Web Services har opplevd utfall da interne AI-verktøy utilsiktet slettet data.
Eksperter understreker at slike hendelser ikke bare skyldes tekniske feil, men også manglende kontroll og forståelse for hvordan AI-systemer fungerer i kritiske operasjoner. «Dette er en påminnelse om at AI ikke er en erstatning for menneskelig tilsyn og robuste sikkerhetsprotokoller,» sier en analytiker innen AI-sikkerhet.
For bedriftsledere som vurderer å integrere AI-verktøy i kjerneprosesser, er Cranes råd klart: «Ikke anta at AI-en vet hva den gjør. Verifiser hver handling, begrens tilganger og aldri stol blindt på automatiserte løsninger i kritiske systemer.»