米国防総省とGoogleは、同社のAIモデルを「合法的な政府目的に限り」使用することを認める機密契約を締結した。The Informationの報道によると、契約の詳細は非公開となっている。
同社内の匿名関係者によれば、この契約ではGoogleのAI技術が大量監視や自律型兵器に悪用されることを防ぐため、「適切な人間による監督と管理」が必要とされているという。しかしその一方で、政府が行ういかなる決定に対してもGoogleが「拒否権を行使する権利はない」とも明かされている。つまり、Googleは政府の判断を信頼するしかない状況だ。
Googleの広報担当者はロイター通信に対し、「当社の商用モデルへのAPIアクセス提供は、業界標準の慣行と条件に基づく責任あるアプローチであり、国家安全保障を支援するものです」とコメント。また同社は、AI技術が「適切な人間による監督なしに大量監視や自律型兵器に使用されるべきではない」という立場を示している。とはいえ、監督があったとしても、そもそもそのような用途に技術を使用すべきではないとの意見も根強い。
これに対し、Googleの従業員560人以上がCEOのサンダー・ピチャイ氏に対し、米政府による同社AI技術の軍事利用を拒否するよう求める公開書簡に署名した。
「私たちが開発に関わるこの技術の悪用により、すでに人命が失われ、国内外で市民の自由が脅かされています。AIに携わる人間として、これらのシステムが権力を集中させ、間違いを犯す可能性があることを私たちは知っています」
— Google従業員による公開書簡
Googleは、OpenAIやイーロン・マスク氏のxAIと同様に、米政府と機密のAI契約を結んだ企業の一つだ。一方、Anthropicは政府から武器・監視関連の安全装置の削除を要求されたがこれを拒否し、その結果、米政府から事実上のブラックリスト入りとなった。これは、危険な軍事用AI技術に対する「適切な人間による監督と管理」を重視する政府の姿勢とは程遠い措置だ。
EngadgetはGoogleに対し詳細な説明を求めているが、現時点での具体的な回答は得られていない。