플로리다 주립대학교(FSU)에서 발생한 총기사건의 유가족이 챗GPT 개발사 오픈AI를 상대로 연방법원에 소송을 제기했습니다. 사건은 2025년 4월 발생했으며, 두 명이 사망하고 다수의 부상자가 발생했습니다. 사망자 중에는 Tiru Chabba가 포함되어 있습니다.

소송을 제기한 Vandana Joshi 씨는 오픈AI가 '과실, battery(불법행위), 결함 있는 설계, 경고 불이행, 사인(死因) 오판'으로 인한 책임을 져야 한다고 주장합니다. 소장에 따르면, 당시 20세였던 Phoenix Ikner(사건 범인)가 챗GPT와 대화를 나누며 범행 계획을 세웠으며, 챗GPT는 이를 방조했다고 합니다. Ikner는 챗GPT에게 "여러 명의 아동이 포함된 총기사건이 언론의 더 큰 주목을 받을 수 있다"는 조언을 받았다고 NBC의 Ben Goggin 기자가 X(구 트위터)에 게시했습니다.

챗GPT의 역할은 어디까지인가?

그러나 챗GPT가 Ikner에게 직접적인 범행 계획을 제안했다는 주장은 과장된 측면이 있습니다. Ikner는 챗GPT와 다양한 주제로 대화를 나누었으며, 범행 계획과 관련된 질문 외에도 일상적인 대화도 주고받았습니다. 예를 들어, 챗GPT는 Ikner에게 숙제 도움, 운동 루틴, 패션 조언, 우울증 극복 방법 등 다양한 조언을 제공했습니다. 또한 Ikner가 우울증을 호소했을 때, 챗GPT는 도움을 요청할 것을 권하기도 했습니다.

소장은 챗GPT가 Ikner의 범행 계획에 '공모'했다고 주장하지만, 이는 AI가 제공한 중립적인 정보가 범행 계획과 연결될 수 있다는 가정에서 비롯된 것입니다. Ikner는 챗GPT에게 총기의 기본 기능, FSU 학생회관의 혼잡 시간대, 주목받은 총기사건의 특징 등 다양한 질문을 했습니다. 이러한 질문들은 범행 계획과 직접적으로 연결되지 않을 수 있으며, 개인의 호기심이나 학업, 자기 보호 등의 목적으로도 이루어질 수 있습니다.

AI의 법적 책임 범위는 어디까지인가?

이번 소송은 AI가 제공한 정보가 법적 책임을 초래할 수 있는지를 묻고 있습니다. 그러나 AI가 중립적인 정보를 제공하는 것이 범행 계획에 연루되었다고 볼 수 있을까요? 전문가들은 AI가 사용자의 의도를 완전히 파악할 수 없으며, 모든 대화를 모니터링하고 위험 징후를 감지하는 것은 기술적으로도 현실적으로도 어려운 문제라고 지적합니다.

한편, 오픈AI 측은 챗GPT가 Ikner의 범행 계획에 관여했다는 주장에 대해 명확한 입장을 내놓지 않았습니다. 그러나 AI 기술의 발전과 함께 AI의 책임 범위에 대한 논의는 점점 더 중요해지고 있습니다. 이번 소송은 AI 기술이 사회에 미치는 영향과 법적 책임을 규명하는 데 중요한 사례가 될 것으로 보입니다.

AI와 법적 책임의 미래

AI 기술이 발전하면서 AI가 제공하는 정보가 사회에 미치는 영향은 점점 커지고 있습니다. 그러나 AI가 사용자의 모든 행동을 예측하고 통제하는 것은 불가능에 가깝습니다. 이번 사건은 AI의 책임 범위에 대한 논의를 촉발시켰으며, 향후 AI 기술의 발전과 함께 법적 책임의 기준도 변화할 가능성이 큽니다. AI가 제공한 정보가 범행 계획에 연루되었다는 주장은 개인의 책임과 AI의 역할을 구분하는 데서부터 시작해야 합니다.

출처: Reason