For et selskap med en av de viktigste oppgavene innen informasjonssikkerhet, kan vurderingen av AI sine risikoer og muligheter føles mer som et terningkast enn en analytisk øvelse. En passordhåndteringstjeneste som allerede må forsvare kundens mest verdifulle legitimasjonsopplysninger mot både ytre angripere og kundens egen uaktsomhet, står nå overfor nye utfordringer knyttet til AI.
AI kan hjelpe passordhåndteringsselskaper med å utvikle kode og identifisere sårbarheter raskere. Samtidig kan AI også føre til at kunder leverer dårlig kodede apper som utilsiktet eksponerer passord. Selv om AI-agenter lover å utføre komplekse oppgaver effektivt, kan de også gjøre feil – på samme måte som en sliten menneskelig medarbeider, men i større skala og med større konsekvenser.
«Du må begynne med å hjelpe kundene med å forstå omfanget av trusselen og hvor utbredt utfordringen er i deres eget økosystem», sier Nancy Wang, teknologisjef i 1Password.
Hvordan 1Password forebygger problemer med AI
Det Toronto-baserte selskapet har utviklet en AI-strategi som først og fremst handler om å forhindre at bedriftskunder kommer i selvforskyldt fare. Gjennom en lokal AI-agent overvåker 1Password hvordan kundens utviklere bruker AI-modeller, og varsler om potensielle risikoer.
«Hei, CISO, visste du at utviklerne dine bruker DeepSeek-modellen på denne delen av kodebasen?», sier Wang, og refererer til den kinesiskutviklede språkmodellen som har blitt kritisert for sikkerhetsrisikoer. «Det har faktisk skjedd.»
Etter oppdagelsen ble utviklerne varslet, og sikkerhetsrutinene ble gjennomgått. Agenten, som også sjekker for programvareoppdateringer og enheter som er i orden, hjelper 1Password med å oppdage dårlig passordhåndtering.
«Når vi oppdager ubeskyttede, ukrypterte legitimasjonsopplysninger på en enhet fordi vi har vår egen lokale agent, flytter vi disse til vårt sikre, krypterte hvelv», forklarer Wang.
1Password, som andre passordhåndteringstjenester, krypterer lagrede legitimasjonsopplysninger ende-til-ende, slik at selskapet ikke kan se de lagrede passordene. Wang legger til at programvaren er designet slik at en AI-agent ikke kan se klartekst-passord, selv når de autofylles på en nettside.
Bedrifter kan også instruere ansatte om å installere 1Passwords Device Trust-agent på private enheter, noe som reduserer en vanlig og ofte vellykket angrepsmetode. Etterlevelse av slike tiltak kan imidlertid variere, for eksempel når familiekontoer inkludert i bedriftsplaner ofte forblir ubrukte på ansattes datamaskiner.
Slik hindrer 1Password AI-agenter i å gå galt
AI-agenter kan automatisere rutineoppgaver, men på grunn av sin ikke-deterministiske natur krever de systematisk overvåking for å sikre at de holder seg på rett kurs. Wang beskriver dette som en «grøntmarksmulighet» for 1Password til å lære av agentenes oppførsel i stor skala.
«Hva var prompten? Hva gjorde agenten med den? Hva var resultatet?», spør hun. De resulterende loggfilene «vil deretter mate tilbake som en læringsmekanisme for agenten og modellen».
I februar lanserte 1Password en standard for AI-agenters oppførsel, kalt Security Comprehension and Awareness Measure (SCAM-indeks), for å sikre tryggere og mer pålitelige AI-systemer.