Das US-Verteidigungsministerium (Pentagon) hat am Freitag bekannt gegeben, dass es mit sieben Technologieunternehmen Verträge zur Nutzung von künstlicher Intelligenz (KI) in seinen geheimen Computernetzwerken abgeschlossen hat. Die Vereinbarungen sollen die militärischen Fähigkeiten stärken und die Entscheidungsfindung von Soldaten in komplexen Kampfsituationen unterstützen.

Zu den beteiligten Unternehmen gehören Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection und SpaceX. Sie werden ihre Ressourcen bereitstellen, um die KI-gestützte Kriegsführung zu ermöglichen. Ein Sprecher des Pentagon erklärte, die Technologien sollen helfen, «die Entscheidungsfähigkeit der Streitkräfte in anspruchsvollen Einsatzszenarien zu verbessern».

Bemerkenswerterweise fehlt der Liste der KI-Spezialist Anthropic. Das Unternehmen steht seit einem öffentlichen Konflikt mit der Trump-Administration über ethische und sicherheitstechnische Bedenken im Zusammenhang mit dem KI-Einsatz im Krieg nicht mehr auf der Liste der Partner.

KI in der Kriegsführung: Chancen und Risiken

Das Pentagon setzt zunehmend auf KI, um militärische Abläufe zu optimieren. Laut einem Bericht des Brennan Center for Justice aus dem März kann die Technologie die Zeit verkürzen, die benötigt wird, um Ziele auf dem Schlachtfeld zu identifizieren und anzugreifen. Zudem unterstützt sie bei der Organisation von Waffenwartung und Nachschublinien.

Doch der Einsatz von KI im Militär wirft auch schwerwiegende Fragen auf. Kritiker befürchten, dass die Technologie die Privatsphäre von US-Bürgern gefährdet oder sogar Maschinen die Zielauswahl auf dem Schlachtfeld übernehmen könnten. Ein beteiligtes Unternehmen betonte, dass seine Vereinbarung mit dem Pentagon in bestimmten Situationen eine menschliche Aufsicht vorsieht.

Ethische Debatten und militärische Realität

Die Bedenken hinsichtlich des KI-Einsatzes im Militär wurden während des Krieges Israels gegen die Hisbollah im Libanon und der Hamas im Gazastreifen deutlich. US-Techkonzerne unterstützten Israel dabei, Ziele zu verfolgen – doch die Zahl der zivilen Opfer stieg massiv an. Dies nährte die Befürchtung, dass solche Tools unbeabsichtigt zu Toten unter Unschuldigen führen könnten.

Helen Toner, interimistische Geschäftsführerin des Center for Security and Emerging Technology an der Georgetown University, warnt vor einer zu starken Abhängigkeit von KI auf dem Schlachtfeld. «Moderne Kriegsführung basiert oft darauf, dass Menschen in Kommandocentren hinter Monitoren sitzen und komplexe Entscheidungen in unübersichtlichen, schnelllebigen Situationen treffen», erklärt Toner, die zuvor im Vorstand von OpenAI tätig war. «KI-Systeme können dabei helfen, Informationen zusammenzufassen oder Überwachungsdaten auszuwerten, um potenzielle Ziele zu identifizieren.»

Doch sie betont, dass noch ungeklärte Fragen zu Verantwortung, Risikomanagement und Schulung der Nutzer bestehen. «Wie können diese Tools schnell und effektiv eingesetzt werden, um strategische Vorteile zu bieten – gleichzeitig aber sicherstellen, dass die Bediener ausreichend geschult sind und der Technologie nicht blind vertrauen?», fragt Toner.

Anthropic bleibt außen vor – OpenAI übernimmt

Anthropic hatte zuvor gefordert, dass das Militär seine Technologie nicht für vollautonome Waffen oder die Überwachung von US-Bürgern einsetzt. Verteidigungsminister Pete Hegseth wies diese Forderungen zurück und erklärte, das Unternehmen müsse jede vom Pentagon als rechtmäßig eingestufte Nutzung seiner Technologie akzeptieren.

Anthropic verklagte die US-Regierung, nachdem Präsident Donald Trump versucht hatte, alle Bundesbehörden anzuweisen, den Chatbot Claude des Unternehmens nicht mehr zu nutzen. Hegseth stufte Anthropic zudem als «Risiko für die Lieferkette» ein – eine Maßnahme, die vor Sabotage durch ausländische Gegner schützen soll. OpenAI hatte bereits im März einen Deal mit dem Pentagon bekannt gegeben, um Anthropic in geheimen Umgebungen mit ChatGPT zu ersetzen. Das Unternehmen bestätigte dies in einer offiziellen Stellungnahme.