Google a signé un accord confidentiel avec le département de la Défense américain, autorisant l'utilisation de ses modèles d'IA pour « tout usage gouvernemental légal ». Selon un rapport de The Information, les termes exacts du contrat restent secrets.

Une source anonyme au sein de l'entreprise a révélé que les deux parties ont convenu que cette technologie ne devait pas servir à la surveillance de masse domestique ni aux armes autonomes « sans supervision et contrôle humains appropriés ». Cependant, le contrat n'accorde à Google « aucun droit de contrôle ou de veto » sur les décisions du gouvernement. En d'autres termes, la fiabilité du gouvernement américain doit être prise pour acquise.

« Nous estimons que fournir un accès via API à nos modèles commerciaux, y compris sur notre infrastructure, avec des pratiques et conditions standard du secteur, représente une approche responsable pour soutenir la sécurité nationale », a déclaré un porte-parole de Google à Reuters. Celui-ci a également réitéré la position de l'entreprise selon laquelle l'IA ne devrait pas être utilisée pour la surveillance de masse ou les armes autonomes sans supervision humaine adéquate.

« Des vies humaines sont déjà perdues et les libertés civiles sont menacées, tant à l'intérieur qu'à l'extérieur des frontières, en raison des mauvais usages de la technologie que nous contribuons à développer. »

Cette déclaration est extraite d'une lettre ouverte signée par plus de 560 employés de Google, adressée au PDG Sundar Pichai, les exhortant à rejeter l'utilisation de l'IA de l'entreprise dans des opérations militaires classifiées. Les signataires s'inquiètent des risques d'usages « inhumains ou extrêmement nuisibles » de ces technologies.

« En tant que personnes travaillant sur l'IA, nous savons que ces systèmes peuvent centraliser le pouvoir et qu'ils commettent des erreurs », ajoutent-ils.

Google rejoint ainsi OpenAI et xAI d'Elon Musk, qui ont également signé des accords classifiés avec le gouvernement américain. Anthropic, quant à elle, avait un contrat en place mais a refusé de supprimer les garde-fous liés aux armes et à la surveillance, ce qui a conduit à son exclusion des projets fédéraux par l'administration Trump.

Cette décision controversée soulève des questions sur l'engagement réel du gouvernement à encadrer l'utilisation militaire de l'IA. Engadget a contacté Google pour obtenir des précisions supplémentaires et mettra à jour l'article en conséquence.

Source : Engadget