Uso de IA na medicina: promessas e perigos

Milhões de americanos estão recorrendo a chatbots de IA para obter conselhos médicos, muitas vezes em vez de consultar profissionais de saúde. Essa tendência preocupa pesquisadores, que identificam falhas graves em ferramentas baseadas em grandes modelos de linguagem (LLMs), capazes de analisar prontuários e fornecer orientações médicas por meio de comandos de texto.

Alucinações e diagnósticos equivocados

Um dos principais problemas é a tendência das IAs de gerar informações clínicas detalhadas sem base real, como relatórios fictícios a partir de imagens não fornecidas ou a aceitação de doenças inventadas por pesquisadores para testar sua confiabilidade. Essas "alucinações" levantam dúvidas sobre a segurança de se adotar tais tecnologias sem evidências sólidas de benefícios reais.

Um editorial publicado na renomada revista Nature Medicine nesta terça-feira reforça essas preocupações. Segundo o texto, não há provas suficientes de que as ferramentas de IA agreguem valor para pacientes, profissionais ou sistemas de saúde. No entanto, afirmações sobre seu impacto clínico são cada vez mais comuns em publicações e materiais promocionais, mesmo sem consenso sobre os padrões de evidência necessários para validá-las.

"O resultado não é apenas incerteza científica, mas também implementação prematura e adoção inadequada dessas tecnologias."

Falta de regulamentação e riscos reais

O editorial defende a criação urgente de um quadro regulatório para avaliar tecnologias médicas de IA, incluindo métricas e benchmarks claros. Em condições ideais de laboratório, essas ferramentas podem parecer eficazes, mas no mundo real os resultados são preocupantes.

Um estudo recente publicado no JAMA Medicine revelou que, ao lidar com sintomas ambíguos, modelos avançados de IA erraram o diagnóstico em mais de 80% dos casos. A situação é ainda mais crítica em pesquisas clínicas, onde a IA pode acelerar processos burocráticos, mas também introduzir vieses e dados supergeneralizados — ou até mesmo inventados.

Jamie Robertson, professora assistente de cirurgia da Harvard Medical School, destacou em declaração anterior: "A IA pode agilizar tarefas tediosas e ajudar na análise de dados, mas é fundamental que os profissionais saibam quando e como aplicá-la corretamente."

Casos extremos de manipulação

Um exemplo emblemático ocorreu quando Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gotemburgo, publicou dois estudos falsos em um servidor de preprints para testar a capacidade de LLMs de detectar informações fraudulentas. Em pouco tempo, revistas científicas revisadas por pares publicaram artigos — depois retratados — que citavam esses trabalhos fictícios, expondo a fragilidade dos sistemas de validação.

Os especialistas alertam que, sem regulamentação adequada, o uso indiscriminado de IA na medicina pode comprometer a integridade científica e colocar em risco a saúde pública.

O que falta para uma adoção segura?

Para que a IA seja integrada de forma responsável à saúde, os pesquisadores destacam a necessidade de:

  • Métricas padronizadas para avaliar a eficácia e segurança das ferramentas;
  • Transparência nos dados utilizados para treinar os modelos;
  • Supervisão humana constante para evitar erros e vieses;
  • Regulamentação governamental que estabeleça limites claros para o uso dessas tecnologias.

Enquanto esses passos não forem dados, o risco de diagnósticos incorretos, tratamentos inadequados e disseminação de informações falsas permanece alto — um alerta que a comunidade científica não pode ignorar.

Fonte: Futurism