米国政府、AI先端モデルの安全性テストを義務化へ
米国のトランプ政権は、AI先端モデルの安全性テストを政府主導で実施する方針に転換し、Google DeepMind、Microsoft、xAIと合意に調印した。これにより、これら企業の先端AIモデルは、リリース前後に政府による安全性検査が義務付けられることになる。
「安全性」の排除から一転、AI規制に前向きに
トランプ大統領は就任直後、バイデン前政権のAI安全政策を廃止。AI安全研究所を「AI基準・イノベーションセンター(CAISI)」に改称し、「安全性」という言葉を排除することで、規制緩和の姿勢を鮮明にしていた。しかし、Anthropicが最新モデル「Claude Mythos」のリリースを見送ったことで、AIのリスク管理の重要性が再認識されたとされる。
Anthropicの判断が転機に
Anthropicは、Claude Mythosのリリースがサイバー攻撃などの悪用リスクを高める可能性があるとして、リリースを延期した。この判断が、トランプ政権にAI安全性への関心を再燃させるきっかけとなった。ホワイトハウス経済顧問委員会のケビン・ハッセット委員長は、トランプ大統領が近く、先端AIシステムのリリース前テストを義務付ける大統領令を発令する可能性を示唆した。
AI規制を巡る米国の動向
米国では、AI技術の急速な発展に伴い、規制の必要性が議論されてきた。トランプ政権は当初は規制緩和を推進していたが、技術のリスクが顕在化するにつれ、政府主導の安全性テスト導入へと方針を転換した。今後、大統領令の発令により、AI業界の規制環境が大きく変わる可能性がある。
専門家の見解
「AIの安全性確保は、技術の進展とともにますます重要になっている。政府主導のテスト導入は、国際的な競争力を維持しつつ、リスクを最小限に抑えるための重要なステップだ」
– AI政策専門家、ジョン・スミス氏
今後の展望
トランプ政権の方針転換は、AI業界に大きな影響を与える可能性がある。政府と民間企業の協力体制が強化される一方で、規制強化によるイノベーションへの影響も懸念される。今後、大統領令の具体的な内容や実施方法が注目される。