Det amerikanske forsvarsministerium, Pentagon, har indgået aftaler med syv førende techvirksomheder for at integrere kunstig intelligens (AI) i militærets hemmelige computernetværk. Aftalerne omfatter blandt andre Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection og SpaceX.

Ifølge Pentagon skal AI-systemerne støtte og forbedre soldaters beslutningstagning i komplekse krigssituationer. Teknologien kan blandt andet reducere den tid, det tager at identificere og angribe mål på slagmarken, samt effektivisere vedligeholdelse af våben og forsyningslinjer.

AI’s militære anvendelse er imidlertid omstridt. Kritikere frygter, at teknologien kan krænke privatlivets fred, føre til fejlagtige målvalg eller give maskiner for stor autonomi i krigszoner. En af de involverede virksomheder har allerede sikret sig, at menneskelig overvågning er påkrævet i visse situationer.

Etiske dilemmaer og tidligere konflikter

Debatten om AI i krigsførelse har intensiveret sig efter Israels militære operationer i Gaza og Libanon. Her har amerikanske techgiganter, herunder Google og Microsoft, leveret teknologi til målidentifikation, hvilket har medført en markant stigning i civile dødsofre. Dette har rejst spørgsmål om, hvorvidt AI-værktøjer bidrager til unødvendige tab.

Manglende enighed om menneskelig kontrol

Helen Toner, midlertidig direktør for Georgetown University’s Center for Security and Emerging Technology, påpeger, at moderne krigsførelse ofte foregår via kommandocentre, hvor beslutninger træffes på baggrund af overvågningsdata og komplekse scenarier. AI kan hjælpe med at analysere information og foreslå potentielle mål, men spørgsmålet om tilstrækkelig menneskelig involvering og træning er stadig uafklaret.

»Hvordan implementerer man disse værktøjer hurtigt nok til at give en strategisk fordel, samtidig med at man sikrer, at operatører er tilstrækkeligt uddannede og ikke overtror sig på systemerne?« spørger Toner.

Anthropic udelukket efter strid med Trump-administrationen

AI-virksomheden Anthropic er ikke med på listen over samarbejdspartnere. Virksomheden har tidligere været i konflikt med Trump-administrationen vedrørende etiske og sikkerhedsmæssige spørgsmål om AI’s rolle i krig. Pentagon forsøgte at blokere Anthropics chatbot Claude fra føderale systemer, hvilket førte til en retssag.

OpenAI overtog senere rollen som Pentagon’s primære AI-leverandør med en aftale i marts, der tillader brug af ChatGPT i klassificerede miljøer. Virksomheden har bekræftet aftalen i en officiel meddelelse.

»AI kan være et kraftfuldt redskab i krigsførelse, men det kræver streng kontrol og menneskelig tilsyn for at undgå katastrofale fejl.«
— Ekspertudtalelse fra Georgetown University’s Center for Security and Emerging Technology