OpenAI,ChatGPT에 '신뢰할 수 있는 연락처' 기능 도입

AI 기업 OpenAI가 ChatGPT 사용자의 안전을 강화하기 위한 새로운 기능을 도입했습니다. 사용자가 자살을 시도할 위험이 있다고 판단될 경우, 미리 지정한 보호자에게 AI가 연락을 취할 수 있는 시스템입니다.

보호자 지정 및 동의 절차

이 기능은 '신뢰할 수 있는 연락처(Trusted Contact)'로 불리며, 사용자가 직접 보호자를 지정할 수 있습니다. 보호자는 가족, 친구, 또는 신뢰할 수 있는 제3자 등 사용자가 원하는 대상을 선택할 수 있습니다. AI가 위험 신호를 포착하면, 사용자의 사전 동의 하에 보호자에게 알림이 전송됩니다.

위험 감지 메커니즘

ChatGPT는 사용자의 대화 패턴이나 특정 단어, 문맥을 분석하여 위험 신호를 감지합니다. 예를 들어, 자해 관련 표현이나 절망적인 감정을 담은 대화를 분석해 위험도를 판단합니다. 다만, 이 시스템은 사용자의 프라이버시를 최대한 보호하기 위해 설계되었습니다.

사용자 동의 및 투명성 강조

OpenAI는 사용자의 동의를 최우선으로 고려했습니다. 보호자에게 알림이 전송되기 전에 사용자에게 명확한 알림이 제공되며, 알림 전송 여부를 사용자가 직접 선택할 수 있습니다. 또한, 이 기능은 선택 사항으로 제공되어 사용자가 원하지 않을 경우 비활성화할 수 있습니다.

기술적 한계 및 윤리적 고려

AI가 자살 위험을 정확히 판단하는 데는 한계가 있습니다. OpenAI는 이 기능을 보완하기 위해 전문가와 협력해 시스템의 정확성을 높이고 있습니다. 또한, 사용자의 정신 건강을 보호하기 위해 AI의 판단이 아닌, 최종적인 판단은 humans(전문가 또는 보호자)가 내리도록 설계되었습니다.

OpenAI의 입장: "우리는 사용자의 안전을 최우선으로 생각합니다. 이 기능은 위험한 상황을 조기에 발견하고 도움을 제공하기 위한 것입니다. 다만, 사용자의 프라이버시와 자율성을 존중하는 것이 가장 중요하다고 믿습니다."

다른 AI 기업들의 대응

이번 OpenAI의 결정은 AI 안전성에 대한 논의를 다시 한번 불러일으켰습니다. 구글, 메타 등 주요 AI 기업들도 유사한 기능을 도입할지 주목받고 있습니다. 특히, AI가 인간의 감정을 판단하는 데 대한 윤리적 논쟁이 활발해질 전망입니다.

사용자 반응 및 기대

일부 사용자들은 이 기능이 유용하다고 평가하는 반면, 프라이버시 침해 우려를 표하는 경우도 있습니다. OpenAI는 사용자들의 피드백을 적극 반영해 기능을 개선할 계획입니다. 특히, 알림 시스템의 투명성을 높이고, 사용자가 언제든지 설정을 변경할 수 있도록 할 예정입니다.

출처: Engadget