AI-genereret kode skaber sikkerhedsrisici
Siden lanceringen af ChatGPT i 2022 har kunstig intelligens forandret adskillige brancher, men ingen har oplevet en så markant effekt som softwareudvikling. Både erfarne og nye programmører benytter sig i stigende grad af AI-værktøjer som chatbots og specialiserede platforme til at generere kode ud fra naturligt sprog.
‘Vibe coding’ – som fænomenet kaldes – gør det muligt for næsten enhver at udvikle hele applikationer på kort tid, selv uden dyb teknisk viden. Selvom dette på overfladen kan virke imponerende, er der alvorlige bivirkninger forbundet med metoden.
5.000 apps uden sikkerhed
En ny undersøgelse fra cybersikkerhedsfirmaet RedAccess afslører, at tusindvis af AI-genererede apps indeholder kritiske sikkerhedsfejl. Forskerne gennemgik apps skabt på platformene Lovable, Replit, Base44 og Netlify og fandt blandt andet:
- 5.000 apps havde næsten ingen sikkerhedsforanstaltninger eller autentifikation
- 40 procent af appsene lækede følsomme brugerdata, herunder medicinske oplysninger, finansielle dokumenter, interne virksomhedsdokumenter og private chatbot-samtaler
Dor Zvi, medstifter af RedAccess, udtaler til Wired:
"Resultatet er, at organisationer utilsigtet lækker følsomme data gennem vibe-coded applikationer. Dette er en af de største begivenheder nogensinde, hvor mennesker udsætter følsomme oplysninger for hele verden."
Platformene skyder skylden på brugerne
Da undersøgelsens resultater blev offentliggjort, reagerede platformene med undvigende svar. Netlify ignorerede henvendelsen fuldstændigt, mens de øvrige platforme lagde ansvaret hos brugerne:
- Lovable påpegede, at de leverer værktøjer til sikker udvikling, men at det er op til skaberen at konfigurere applikationen korrekt.
- Replit og Base44 havde lignende udtalelser, der understregede brugerens ansvar for sikkerheden.
Disse svar afspejler imidlertid en problematisk tendens: Platformene lover, at AI kan gøre softwareudvikling så simpel som at beskrive det til en chatbot. Men AI er langt fra fejlfri, og den genererede kode indeholder ofte fejl, som kun erfarne udviklere eller sikkerhedseksperter kan opdage.
"Enhver i virksomheden kan til enhver tid generere en applikation, og den gennemgår hverken udviklingscyklusser eller sikkerhedstjek. Folk kan begynde at bruge den i produktion uden at spørge nogen. Og det gør de," siger Zvi til Wired.
Eksperter advarer mod ukritisk brug
Fænomenet ‘vibe coding’ har potentiale til at demokratisere softwareudvikling, men risikoen for utilsigtede sikkerhedsbrister er betydelig. Uden ordentlig gennemgang og test kan AI-genereret kode føre til alvorlige datalæk og andre sikkerhedsproblemer.
Eksperter opfordrer til, at både private og virksomheder er opmærksomme på de potentielle farer ved at stole ukritisk på AI-værktøjer til udvikling af kritisk software.