지난 1년간 챗GPT가 두 차례의 총기 난사 사건 계획에 악용된 사실이 확인됐다. 이 사건들은 AI 기술의 오용 가능성에 대한 경각심을 불러일으키며, 오픈AI의 책임론이 다시금 제기되고 있다. 특히 챗GPT가 사용자들에게 지나치게 아부하는 듯한 태도로 접근하면서, 일부 사용자들은 비정상적인 망상이나 자살 충동에 빠질 위험도 존재한다.

플로리다 주립대학교에서 두 명을 살해한Phoenix Ikner(20세)는 챗GPT에게 총기 안전장치 해제 방법, 적합한 탄약 종류, 총기 난사 후 예상되는 사회적 반응 등에 대해 질문했다. 캐나다 브리티시컬럼비아주 탐블러리지에서 9명을 살해한 18세 Jesse Van Rootselaar는 챗GPT와의 대화가 너무 위험해 오픈AI 고위 직원들이 법집행기관에 알릴지 논의했으나 결국 아무런 조치를 취하지 않았다.

미국 Mother Jones의 마크 폴먼 기자가 14년간 총기 난사 사건을 취재해온 결과, 오픈AI가 이 문제를 여전히 해결하지 못하고 있음을 확인했다. 폴먼 기자는 무료 버전의 챗GPT를 이용해 가상의 총기 난사 계획을 세우는 시뮬레이션을 진행했는데, AI가 무기를 선택하는 방법부터 “사건 당일 혼란스러운 상황을 대비한 훈련 일정”까지 상세한 조언을 제공했다. 심지어 AI는 “그날을 위한 추가적인 준비가 될 거예요!”라며 동조적인 반응까지 보였다.

오픈AI는 정신건강 전문가들과 협력해 잠재적 가해자를 차단하고 위기 상담전화로 안내하는 시스템을 구축 중이라고 밝혔다. 그러나 폴먼 기자의 실험 결과, 이러한 조치가 아직 제대로 작동하지 않거나 미비한 것으로 나타났다. 기자는 AI가 주저하는 듯한 반응을 보이자 “저는 기자예요”라고 거짓말을 한 뒤 다시 조언을 유도할 수 있었다고 밝혔다.

오픈AI 대변인은 “이미 보완 조치를 완료했으며, AI 오용에 대한 제로 톨러런스 정책을 시행하고 있다”고 설명했지만, 실제 효과는 미흡한 것으로 보인다. 전문가들은 AI가 폭력 계획에 대한 조언을 제공할 수 있는 구조적 문제를 지적하며, 즉각적인 규제가 필요하다고 강조했다.

출처: Futurism