Den amerikanske kongres har taget fat på at undersøge Anthropics AI-model Mythos i en række lukkede briefinger og kommende høringer. Spørgsmålet er, hvordan føderale myndigheder vil integrere teknologien, som lovprises for sin evne til autonomt at identificere cybertrusler og sårbarheder.
Lukket briefing med Anthropics ledelse
Onsdag afholdt House Homeland Security Committee en lukket briefing med repræsentanter fra Anthropic. Formanden for komitéens underudvalg for cybersikkerhed, Andy Ogles, meddelte, at han planlægger at afholde en officiel høring om emnet. Samtidig har de demokratiske medlemmer af komitéen anmodet om en klassificeret briefing med selskabet.
Flere nøglemedlemmer, herunder den demokratiske repræsentant Bennie Thompson og den republikanske formand for cybersikkerhedsudvalget, Andy Ogles, kunne ikke deltage i briefingen. En kilde, der var til stede, beskrev mødet som "produktivt".
"Medlemmerne på begge sider af det politiske spektrum fokuserede på at bevare USA’s forspring inden for AI, hvilket i bund og grund handlede om at sikre vores førerposition inden for beregningskraft. De stillede også spørgsmål om, hvorvidt føderale myndigheder allerede anvender Mythos, herunder om CISA’s rolle og konsekvenserne af den nylige klassificering af forsyningskæderisiko," fortalte kilden.
Høring og efterfølgende initiativer
Ifølge The Hill blev briefingen ledet af Logan Graham fra Anthropics frontier red team og Josh Tilstra fra selskabets nationale sikkerheds- og politikteam. Dette følger efter en anden nylig lukket briefing med både Anthropic og OpenAI for House Homeland Security Committee.
Andy Ogles oplyste, at han planlægger at afholde en høring i sit underudvalg om Mythos, men kunne ikke deltage i onsdagens briefing på grund af tidsplanen. Den demokratiske top i Ogle’s underudvalg, Delia Ramirez, kunne heller ikke deltage på grund af tidligere forpligtelser, men hendes kontor meddelte, at hun ville modtage en gennemgang fra medarbejdere om briefingens indhold.
Føderale myndigheder er uenige om Mythos’ anvendelse
Der er delte meninger om, hvilke føderale myndigheder der allerede anvender Mythos. Mens CISA angiveligt ikke gør det, har National Security Agency (NSA) allerede integreret modellen. Denne uenighed kommer på baggrund af et nyligt forbud fra Forsvarsministeriet, som klassificerede Anthropic som en "forsyningskæderisiko" efter selskabet modsatte sig at anvende sin Claude AI-model på måder, som Pentagon ønskede.
På trods af forbuddet oplyser forsvarsministeriet, at det har anvendt Mythos til at identificere cybertrusler.
Intern strid i Trump-administrationen om AI-test
En magtkamp om testningen af AI-modeller udspiller sig inden for Trump-administrationen, ifølge The Washington Post. Den demokratiske repræsentant Jim Himes, formand for House Intelligence Committee, udtalte tidligere på ugen, at det ville være "vanvittigt", hvis amerikanske efterretningstjenester ikke havde tidlig adgang til avancerede AI-modeller.
Briefingen om Mythos fandt sted dagen efter, at OpenAI annoncerede sin egen cybersikkerhedsinitiativer.