미국 미네소타주가 AI 기술을 악용한 가짜 누드 이미지 제작·유포를 금지하는 법안을 통과시켰다. 이 법은 AI 기반 '누드화(nudify)' 앱 개발자와 서비스 제공자를 대상으로 하며, 피해자 소송 시 최대 50만 달러의 손해배상금을 포함해 엄격한 법적 책임을 물을 수 있다.

법안에 따르면, 해당 앱이나 서비스는 미네소타주 내에서 차단될 수 있으며, 주 검찰총장은 가짜 AI 누드 이미지 1건당 최대 50만 달러의 벌금을 부과할 수 있다. 이 벌금은 성범죄, 일반 범죄, 가정폭력, 아동 학대 피해자 지원 사업에 사용된다.

만장일치로 통과된 법안

미네소타주는 지난 19일(현지시간) 주 상원에서 65대 0의 만장일치로 법안을 통과시켰다. 이틀 전인 17일에는 주 하원에서 신속히 통과된 바 있으며, 곧 주지사인 팀 월즈(Tim Walz)의 서명을 받을 예정이다. 서명이 완료되면 오는 8월부터 본격적인 집행에 들어간다.

AI 기술 남용 방지 위한 첫 법적 조치

AI 기반 이미지 생성 기술이 발전하면서, 타인의 사진을 기반으로 가짜 누드 이미지를 제작하는 '딥페이크' 앱이 문제가 되고 있다. 이러한 앱은 피해자의 동의 없이 성적 이미지를 제작·유포해 심각한 2차 피해를 일으킬 수 있다. 미네소타주의 이번 법안은 이러한 기술 남용을 방지하기 위한 첫 번째 주 차원의 법적 조치로 주목받고 있다.

법안 통과에 따라 미네소타주는 AI 기술의 윤리적 사용과 개인 정보 보호 강화에 앞장서는 주가 되었다. 주민들은 AI 기술이 악용되지 않도록 각별한 주의가 요구된다.