AI:s dubbla ansikte: hjälpreda eller säkerhetshot?

Anthropic har fattat ett ovanligt beslut. Företaget kommer inte att släppa sin mest kraftfulla AI-modell, Mythos, till allmänheten. Anledningen? Modellen upptäckte tusentals tidigare okända säkerhetsbrister i stora operativsystem och webbläsare – brister som funnits oupptäckta i upp till tre decennier.

Anthropic menar att Mythos är för farlig för bred användning. Den kan inte bara identifiera säkerhetsluckor, utan också utnyttja dem. En enda AI-agent kan skanna efter svagheter snabbare och mer ihärdigt än hundratals mänskliga hackare. Beslutet belyser en avgörande fråga: Vart är vi på väg när AI-systemen vi bygger för att hjälpa oss också kan sabotera oss?

Identitetssystemen är föråldrade

AI-agents som planerar våra möten, skriver kod och hanterar arbetsflöden är redan här. Men de flesta digitala säkerhetssystem är designade för en tid då en människa satt bakom tangentbordet. Tänk dig en byggnad där alla dörrar har lås som bara känner igen mänskliga händer. Nu är byggnaden full av robotar – några är godkända budbärare, andra inkräktare – men låsen kan inte skilja på dem.

Tidigare räckte det att komma ihåg ett lösenord och kasta en blick på en lapp på skärmen. Sedan kom säkerhetsfrågor, biometriska skanningar och tvåfaktorsautentisering – alla byggda på en grundläggande förutsättning: det är en människa som använder systemet.

AI-agents bryter mot den förutsättningen från två håll samtidigt. Å ena sidan behöver de legitimt skapade agenter identiteter för att agera på våra vägnar. Exempelvis kan OpenAIs Operator navigera webbplatser åt dig, Googles Gemini planera din semester medan du sover, och Visa har nyligen lanserat en plattform där AI-agents kan handla åt konsumenter. Dessa är inte bara prototyper – de är redan verklighet.

Å andra sidan kan illasinnade aktörer utge sig för att vara människor i stor skala. Den AI som kan hjälpa dig kan också lura dig. De bryter sig inte in – de loggar in genom delade inloggningsuppgifter, rekryteringsportaler, leverantörsverktyg och samarbetsplattformar.

Säkerhet handlar inte längre bara om lösenord

De flesta organisationer behandlar identitet som ett inloggningsproblem – något IT-avdelningen löser med starkare lösenord eller ytterligare autentiseringssteg. Men den verkliga utmaningen är att avgöra vem eller vad som redan har tillgång till systemen.

Denna gränsdragning suddas ut samtidigt som digitala system blir alltmer autonoma. Konsekvenserna är konkreta. Om ett inköpsflöde inte kan skilja mellan en mänsklig chef och en AI-impersonator, skickas beställningar ut under falsk auktoritet. Om loggar inte kan avgöra hur en transaktion genomfördes, hur kan man då bevisa vem som är ansvarig?

”Vi har skapat ett system där identitet inte längre är kopplat till en människa, men våra säkerhetsmodeller är fortfarande fast i det förflutna.” – Säkerhetsexpert vid en ledande tech-konferens

Vad krävs för att möta framtiden?

Experter pekar på flera nödvändiga förändringar:

  • Dynamisk identitetsverifiering: System som kontinuerligt verifierar om en agent är den den utger sig för att vara, snarare än att lita på en engångsinloggning.
  • Kontextmedveten åtkomst: Behörigheter som anpassas efter uppgift och beteende, snarare än fasta roller.
  • AI-detektorer: Verktyg som kan identifiera och blockera AI-impersonatorer i realtid.
  • Nya standarder: Branschgemensamma ramverk för hur AI-agents ska hanteras inom säkerhetsprotokoll.

Utmaningen är inte bara teknisk, utan också etisk. Hur mycket av vår identitet och beslutsfattande är vi beredda att överlåta till AI – och hur säkrar vi att det sker på rätt sätt?

En sak är säker: den traditionella bilden av en människa bakom tangentbordet hör till historien.

Källa: CyberScoop