Den amerikanske præsident Donald Trump har i denne uge foretaget en brat kursændring i forhold til kunstig intelligens (AI) og underskrevet aftaler med Google DeepMind, Microsoft og xAI om at gennemføre omfattende sikkerhedstests af deres mest avancerede AI-modeller – både før og efter udgivelsen.

Indtil for nylig havde Trump konsekvent afvist den tidligere Biden-administrationens politik om frivillige sikkerhedstests. Han betegnede dem som unødvendig regulering, der ville hæmme innovationen. Allerede kort efter sin tiltrædelse i 2025 omdøbte han det amerikanske AI Safety Institute til Center for AI Standards og Innovation (CAISI) – en tydelig markering af, at han ikke prioriterede sikkerhed på linje med sin forgænger.

Men nu, efter at AI-virksomheden Anthropic meddelte, at de ikke ville udgive deres seneste model, Claude Mythos, på grund af bekymring for, at avancerede cybersecurity-funktioner kunne blive misbrugt af ondsindede aktører, er Trump blevet bekymret for AI-sikkerhed. Ifølge Fortune overvejer han nu at udstede en præsidentiel ordre, der vil gøre det obligatorisk for alle udviklere at lade regeringens eksperter teste nye AI-systemer, inden de frigives til offentligheden.

Hvad er årsagen til skiftet?

Anthropics beslutning om at holde tilbage med udgivelsen af Claude Mythos har sat spørgsmålstegn ved, hvorvidt de nuværende sikkerhedsforanstaltninger er tilstrækkelige. Modellen er designet til at identificere og neutralisere cybertrusler på et hidtil uset niveau, hvilket potentielt kan gøre den attraktiv for hackere, statslige aktører eller kriminelle organisationer.

Selvom Trump tidligere har været skeptisk over for regulering af AI, synes han nu at have indset, at uanset regulering er nødvendig for at forhindre misbrug. Den amerikanske regering arbejder derfor på at etablere en mere stringent ramme for test og godkendelse af AI-modeller, inden de bliver tilgængelige for almenheden.

Hvad betyder dette for fremtidens AI-udvikling?

Med de nye aftaler og den mulige præsidentielle ordre sender Trump et tydeligt signal til techbranchen: AI-udvikling kan ikke længere foregå uden indblanding fra myndighederne. Det betyder, at virksomheder som Google, Microsoft og xAI nu skal indrette sig efter strammere regler, hvilket kan føre til længere udviklingstider og højere omkostninger.

Samtidig rejser det spørgsmålet, om andre lande vil følge USA’s eksempel. EU har allerede indført omfattende AI-forordninger, mens Kina og andre nationer arbejder på egne tilgange til regulering. Hvis Trump gennemfører sin plan, kan det føre til en global standardisering af AI-sikkerhedstests – eller i værste fald til en fragmentering af markedet, hvor amerikanske virksomheder får en konkurrencefordel på grund af bedre adgang til regulatoriske data.