미국 트럼프 행정부가 AI 안전성 테스트 정책을 갑자기 번복하고, 구글 딥마인드(Google DeepMind), 마이크로소프트(Microsoft), xAI와 협약을 체결했다. 이 협약에 따라 해당 기업들은 자사 AI 모델을 정부 안전성 테스트를 거쳐야 한다.

트럼프는 지난해 바이든 행정부의 AI 안전성 정책을 강하게 비판하며 ‘과도한 규제’로 규정했다. 취임 직후 미국 AI 안전 연구소(US AI Safety Institute)를 ‘AI 표준·혁신 센터(CAISI)’로 개편하는 등 ‘안전’이라는 용어를 삭제하는 등 정책적 거리를 두었다. 그러나 Anthropic이 최신 AI 모델 ‘클로드 마이토스(Claude Mythos)’의 배포를 중단하기로 결정했다는 소식이 전해지면서 태도가 급변했다.

클로드 마이토스는 사이버 보안 기능이 지나치게 강력해 악의적 행위자에 의해 악용될 우려가 있어 출시가 무산됐다. 이 같은 상황이 트럼프로 하여금 AI 안전성 테스트의 중요성을 재인식하게 한 것으로 보인다.

정부 차원의 AI 안전성 테스트 강화 움직임

화이트하우스 국가경제위원회(National Economic Council) 디렉터 케빈 하셋(Kevin Hassett)은 트럼프가soon soon soon soon AI 모델 배포 전후 정부 안전성 테스트를 의무화하는 행정명령을 발동할 가능성이 있다고 밝혔다. 포춘지가 보도했다.

트럼프의 정책 전환은 AI 기술의 급속한 발전과 그에 따른 위험성 증가에 대한 우려가 반영된 것으로 분석된다. 특히 클로드 마이토스 사태는 AI 모델의 잠재적 위험성을 현실화하는 계기가 됐다. 앞으로 미국 정부는 AI 안전성 규제를 강화할 것으로 전망된다.