NSA ignorerar Pentagonets varningar om säkerhetsrisk
Den amerikanska underrättelsetjänsten NSA använder nu Anthropics senaste AI-modell Mythos Preview, trots att USA:s försvarsdepartement (DoD) officiellt klassat företaget som en säkerhetsrisk för leveranskedjan. Informationen kommer från två oberoende källor som talat med Axios.
DoD inledde redan i februari åtgärder för att blockera Anthropic och krävde att alla leverantörer skulle följa efter. Ärendet pågår fortfarande, men trots detta expanderar nu militären användningen av Anthropics AI-verktyg parallellt med att man i domstol hävdar att dessa verktyg hotar USA:s nationella säkerhet.
Hur används Mythos inom myndigheterna?
Två källor uppger att NSA aktivt använder Mythos, medan en tredje källa menar att modellen även spridits till andra delar av försvarsdepartementet. Exakt hur NSA utnyttjar modellen är oklart, men bland de cirka 40 organisationer som har tillgång till Mythos används den främst för att identifiera säkerhetsbrister och sårbarheter i egna system.
Anthropic har medvetet begränsat tillgången till Mythos, då företaget anser att modellens offensiva cyberförmågor är för riskfyllda för en bredare distribution. Hittills har endast 12 organisationer officiellt tillkännagivits ha tillgång till modellen. En av de oidentifierade aktörerna är enligt uppgift NSA.
Även Storbritanniens motsvarighet till NSA, AI Security Institute, har bekräftat att de har tillgång till Mythos.
Möte med Vita huset för att lösa konflikten
Nyheten kommer samtidigt som Anthropics vd Dario Amodei träffade Vita husets stabschef Susie Wiles och finansminister Scott Bessent för att diskutera myndigheternas användning av Mythos och företagets säkerhetsrutiner. Enligt uppgift var mötet produktivt och nästa steg fokuserar på hur andra myndigheter än Pentagon kan integrera modellen.
Varken Anthropic eller Pentagon har kommenterat uppgifterna. NSA och Office of the Director of National Intelligence har ännu inte svarat på förfrågningar om kommentar.
Spänningar uppstod under förhandlingar
Konflikten mellan Pentagon och Anthropic blossade upp under hårda kontraktsförhandlingar tidigare i år. DoD krävde att Anthropic skulle göra sin tidigare modell Claude tillgänglig för alla lagliga ändamål, medan företaget motsatte sig detta med hänvisning till riskerna för massövervakning och utveckling av autonoma vapen.
Vissa försvarsanställda menar att Anthropics hållning visar att företaget inte kan lita på att ställa upp när militären behöver det. Anthropic avvisar dessa påståenden och hävdar att man prioriterar säkerhet och ansvarsfull AI-utveckling.
Andra inom administrationen önskar att konflikten ska lösas snabbt för att kunna dra nytta av de avancerade AI-verktyg som Anthropic utvecklar.
Varför är detta viktigt?
- Cybersäkerhet vs. säkerhetsrisker: NSA:s användning av Mythos trots varningar visar på en prioritering av teknisk kapacitet framför formella säkerhetsbedömningar.
- AI i försvarssektorn: Frågan om hur AI ska regleras och användas inom militär och underrättelsetjänster blir alltmer akut.
- Framtida policy: Mötet mellan Anthropic och Vita huset kan bana väg för nya riktlinjer för AI-användning i statliga myndigheter.