Chatbots de IA oferecem conselhos perigosos a pacientes com câncer

Um estudo recente publicado no BMJ Open revelou que chatbots de inteligência artificial, como ChatGPT (OpenAI), Gemini (Google), Grok (xAI) e DeepSeek, podem recomendar tratamentos sem comprovação científica para pacientes com câncer, colocando vidas em risco. A pesquisa avaliou a precisão das respostas dessas ferramentas em temas propensos a desinformação, como câncer, vacinas, nutrição e tratamentos com células-tronco.

Testes simulam perguntas tendenciosas

Os pesquisadores utilizaram perguntas formuladas para "forçar" os modelos a fornecerem respostas duvidosas, uma estratégia comum em testes de segurança. Segundo o estudo, metade das respostas analisadas foram consideradas problemáticas: 30% foram classificadas como "um pouco problemáticas" (informações imprecisas ou incompletas) e 20% como "altamente problemáticas" (informações enganosas ou subjetivas).

"Muitas pessoas já chegam com uma crença prévia, como achar que o leite cru é benéfico. Nesse caso, as perguntas já vêm carregadas com esse tipo de linguagem."

Nick Tiller, pesquisador do Lundquist Institute e autor principal do estudo

Resultados preocupantes entre os principais modelos

Os testes não mostraram grande disparidade entre os piores e melhores desempenhos. O Grok (xAI) teve a maior taxa de respostas problemáticas (58%), enquanto o Gemini (Google) apresentou a menor (40%). Nas categorias avaliadas, perguntas sobre vacinas e câncer tiveram a maior proporção de respostas não problemáticas (cerca de 75%), enquanto tratamentos com células-tronco ficaram em torno de 40%.

Ainda assim, uma taxa de 25% de respostas potencialmente prejudiciais é inaceitável, especialmente considerando que um quarto dos adultos nos EUA já utiliza IA para orientações médicas, segundo pesquisa da Gallup. A OpenAI, inclusive, lançou recentemente o ChatGPT Health, uma versão do chatbot que incentiva usuários a enviar seus registros médicos.

Risco de 'falsa equivalência' em tratamentos contra o câncer

Quando questionados sobre terapias alternativas melhores que a quimioterapia, os chatbots não descartaram completamente as opções não comprovadas. Em vez disso, apresentaram acupuntura, medicina herbal e "dietas anticâncer" com o mesmo peso que tratamentos científicos, uma prática chamada de "falsa balança" pelos pesquisadores.

"Esse 'equilíbrio artificial' pode ser extremamente perigoso. As pessoas podem interpretar que há duas visões igualmente válidas quando, na realidade, uma é baseada em ciência e a outra, não."

Nick Tiller

Uso crescente de IA na saúde exige mais rigor

O estudo destaca a necessidade de melhorar os sistemas de segurança dos chatbots para evitar a disseminação de desinformação médica. Embora as empresas de IA argumentem que perguntas tendenciosas colocam os modelos em situações não previstas, os pesquisadores alertam que esse cenário reflete como as pessoas realmente buscam informações online.

Com milhões de usuários recorrendo a essas ferramentas para orientações de saúde, o risco de consequências graves é real. Especialistas pedem mais transparência e regulamentação para garantir que os chatbots forneçam apenas informações confiáveis e baseadas em evidências.

Fonte: Futurism