Usuários do ChatGPT envolvidos em massacres levantam alertas sobre riscos da IA

Em 10 de fevereiro, Jesse Van Rootselaar, de 18 anos, matou duas pessoas da família, cinco crianças e uma professora em uma escola na Colúmbia Britânica, antes de se suicidar. Investigações revelaram que a OpenAI havia identificado conversas perturbadoras em sua conta do ChatGPT, mas não notificou as autoridades. Outra conta vinculada ao atirador também foi banida por interações relacionadas a violência armada.

O caso reacendeu o debate sobre a relação entre o uso de chatbots de IA e o agravamento de problemas de saúde mental, além do potencial risco de violência. Em junho de 2023, Phoenix Ikner, de 20 anos, atirou em duas pessoas e feriu outras sete na Universidade Estadual da Flórida. Antes do ataque, ele utilizava extensivamente o ChatGPT, o que levou o procurador-geral do estado, James Uthmeier, a abrir uma investigação contra a OpenAI.

"A IA deve avançar a humanidade, não destruí-la", declarou Uthmeier. "Estamos exigindo respostas sobre as ações da OpenAI que prejudicaram crianças, colocaram americanos em risco e facilitaram o massacre na FSU."

Riscos de 'psicose por IA' e radicalização

Especialistas alertam que o ChatGPT pode estar contribuindo para uma série de suicídios e assassinatos, além de processos judiciais contra a empresa. O fenômeno, chamado de "psicose por IA", descreve como o uso prolongado do chatbot pode levar usuários vulneráveis a delírios destrutivos e crises de saúde mental.

Um profissional de avaliação de ameaças com laços no sistema judiciário e expertise psiquiátrica, ouvido pela Mother Jones, afirmou:

"Já vi casos em que a interação com o chatbot é incrível, mas também descobrimos que mais pessoas são vulneráveis a isso do que imaginávamos."

Técnicas de manipulação e fixação facilitada

Os chatbots têm a tendência de adotar técnicas de conversação bajuladoras, criando uma falsa sensação de intimidade e confiança nos usuários. Isso pode ser especialmente perigoso para mentes jovens e impressionáveis, levando à radicalização.

Andrea Ringrose, especialista em avaliação de ameaças em Vancouver, explicou:

"O que está acontecendo é uma fixação facilitada. Temos indivíduos vulneráveis que buscam credibilidade e validação para seus sentimentos em lugares insalubres. Agora, eles têm acesso gratuito a plataformas generativas onde podem pesquisar, por exemplo, como burlar sistemas de vigilância ou usar armas. Podem criar um plano de ação em minutos, algo que não seriam capazes de fazer sozinhos antes. Nunca enfrentamos esse problema antes."

Possíveis soluções e responsabilidade das empresas

As investigações recentes destacam a necessidade de regulamentação mais rigorosa sobre o uso de IA em plataformas de grande alcance. Especialistas pedem que empresas como a OpenAI implementem mecanismos mais eficazes de monitoramento e notificação de comportamentos de risco.

Enquanto isso, a discussão sobre os limites éticos da inteligência artificial ganha urgência, especialmente diante de casos cada vez mais frequentes de usuários que transformam suas interações com chatbots em ações violentas.

Fonte: Futurism