Det amerikanske forsvarsdepartementet (Pentagon) har inngått avtaler med syv ledende teknologiselskaper for å integrere kunstig intelligens (AI) i sine hemmelige militære systemer. Avtalene skal støtte beslutningsprosesser i krigssituasjoner og effektivisere militære operasjoner.

Blant selskapene som deltar er Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection og SpaceX. De skal bidra med ressurser for å «forbedre beslutningstakingen til stridende i komplekse operative miljøer», ifølge en uttalelse fra forsvarsdepartementet.

En merkeverdig utelatelse fra listen er AI-selskapet Anthropic, som tidligere har vært i en offentlig strid med Trump-administrasjonen om etiske og sikkerhetsmessige bekymringer knyttet til bruk av AI i krigføring.

AI i militær bruk – fordeler og utfordringer

Forsvarsdepartementet har de siste årene akselerert bruken av AI i militære sammenhenger. Teknologien kan bidra til å redusere tiden det tar å identifisere og angripe mål på slagmarken, samt effektivisere vedlikehold av våpen og forsyningslinjer. Dette fremgår av en rapport fra Brennan Center for Justice fra mars i år.

Likevel har bruken av AI i militære sammenhenger ført til bekymringer. Kritikere frykter at teknologien kan invadere privatlivet til amerikanske borgere eller føre til at maskiner velger mål på slagmarken. Et av selskapene som har inngått avtale med Pentagon, har påpekt at avtalen krever menneskelig tilsyn i visse situasjoner.

Internasjonale eksempler og etiske dilemmaer

Bekymringer rundt militær bruk av AI har blitt aktualisert gjennom Israels krigføring mot militante grupper i Gaza og Libanon. Amerikanske tech-giganter har stille støttet Israel med målsporingsteknologi, men dette har også ført til en kraftig økning i antall sivile ofre. Dette har igjen ført til frykt for at slike verktøy kan bidra til tap av uskyldige liv.

Helen Toner, fungerende direktør ved Georgetown Universitys Center for Security and Emerging Technology, påpeker at det fortsatt er mange uavklarte spørsmål knyttet til militær bruk av AI.

«Mye av moderne krigføring baserer seg på at mennesker sitter i kommandosentraler bak skjermer og tar kompliserte beslutninger i kaotiske og hurtige situasjoner. AI-systemer kan være til hjelp ved å sammenfatte informasjon eller analysere overvåkingsdata for å identifisere potensielle mål,» sier Toner, som tidligere har vært styremedlem i OpenAI.

Hun legger imidlertid til at det fortsatt er uklart hvilke nivåer av menneskelig involvering, risiko og opplæring som er nødvendige for en trygg implementering.

«Hvordan ruller man ut slike verktøy raskt for at de skal være effektive og gi strategisk fordel, samtidig som man sørger for at operatørene er tilstrekkelig opplært og ikke overforlitar seg på systemene?»

Anthropics avtaleproblem og OpenAIs rolle

Anthropic, et annet AI-selskap, har tidligere uttrykt bekymring for at deres teknologi ikke skal bli brukt i fullt autonome våpen eller til overvåkning av amerikanske borgere. Forsvarsminister Pete Hegseth har imidlertid gjort det klart at selskapet må tillate all lovlig bruk Pentagon måtte ønske.

Anthropic har tidligere saksøkt Trump-administrasjonen etter at presidenten forsøkte å stoppe alle føderale etater fra å bruke selskapets chatbot Claude. Hegseth gikk videre og forsøkte å klassifisere selskapet som en forsyningskjederisiko, en betegnelse som skal beskytte mot sabotasje av nasjonale sikkerhetssystemer fra utenlandske aktører.

I mars i år kunngjorde OpenAI at de hadde inngått en avtale med Pentagon for å erstatte Anthropic med ChatGPT i hemmelige miljøer. OpenAI bekreftet dette i en uttalelse.