AI-koding skaper farlige sikkerhetshull

Siden lanseringen av ChatGPT i 2022 har kunstig intelligens forandret mange bransjer, men ingen har blitt like påvirket som programvareutvikling. Fra erfarne utviklere til nybegynnere bruker nå AI-verktøy som chatboter og spesialiserte plattformer til å generere kode basert på naturlig språk. Denne metoden, kalt «vibe coding», gjør det mulig for nesten hvem som helst å lage fullt funksjonelle apper på kort tid – selv uten teknisk kompetanse.

Farlig uvitenhet om sikkerhet

Men det er en stor bakside ved denne utviklingen. En ny rapport fra cybersikkerhetsselskapet RedAccess viser at mange av disse appene inneholder alvorlige sikkerhetsfeil. Undersøkelsen omfattet tusenvis av nettsider laget med plattformene Lovable, Replit, Base44 og Netlify.

Resultatene var skremmende: 5 000 av appene hadde ingen form for sikkerhets- eller autentiseringsmekanismer, og hele 40 prosent av dem lekket sensitiv brukerdata. Blant informasjonen som ble eksponert var medisinske opplysninger, økonomiske data, bedriftsdokumenter og logger fra private chatbot-samtaler.

«Sluttresultatet er at organisasjoner utilsiktet lekker sensitiv informasjon gjennom vibe-coded-apper. Dette er en av de største hendelsene noensinne der bedrifts- og annen sensitiv informasjon blir tilgjengelig for hvem som helst i verden.»

– Dor Zvi, medgründer i RedAccess

Plattformene skylder på brukerne

Da rapporten ble offentliggjort, reagerte plattformene med unnskyldninger og ansvarsfraskrivelser. Netlify ignorerte saken fullstendig, mens de andre plattformene la skylden på brukerne. De hevdet at utviklerne selv hadde ansvaret for å sikre appene.

Lovable, en av plattformene det ble undersøkt, uttalte til Wired:

«Vi behandler dette som en pågående sak. Det er også verdt å merke seg at Lovable gir utviklere verktøyene for å bygge sikkert, men hvordan en app konfigureres, er til syvende og sist skaperens ansvar.»

AI-koding er ikke feilfri

Selv om plattformene har et poeng, er det også en stor ironi i at de samtidig lover at hvem som helst kan lage apper ved å beskrive ønsket funksjonalitet til en AI. Virkeligheten er at AI fortsatt er langt fra perfekt, og generert kode inneholder ofte feil som bare erfarne utviklere eller sikkerhetseksperter kan oppdage.

«Enhver i bedriften kan til enhver tid generere en app, og dette går ikke gjennom noen utviklingssyklus eller sikkerhetskontroll,» sier Zvi. «Folk kan begynne å bruke appen i produksjon uten å spørre noen. Og det gjør de.»

Konsekvenser for personvern og bedriftsikkerhet

Denne utviklingen reiser store spørsmål om ansvar og sikkerhet i en tid der AI blir stadig mer integrert i programvareutvikling. Når utviklere uten tilstrekkelig kompetanse kan produsere apper med potensielt katastrofale sikkerhetshull, blir konsekvensene for personvern og bedriftshemmeligheter alvorlige.

Eksperter advarer om at dette bare er begynnelsen på en større trend der AI-generert kode kan føre til utilsiktede lekkasjer av sensitiv informasjon. Uten strengere kontroll og ansvarsfordeling mellom plattformer og utviklere, kan problemet eskalere.

Les også:

Kilde: Futurism