Um usuário do Reddit recentemente chamou a atenção ao oferecer à venda um banco de dados incomum: mais de 150 mil imagens de fezes, classificadas e rotuladas, provenientes de cerca de 25 mil pessoas. O anúncio, feito na comunidade r/DHExchange, um fórum dedicado à troca de grandes conjuntos de dados, gerou reações de choque e repulsa entre os internautas.

O usuário, identificado como Ill_Car_7351, afirmou que as imagens foram coletadas por meio do aplicativo PoopCheck, desenvolvido pela empresa Soft All Things. O app utiliza inteligência artificial para analisar amostras de fezes com base na Escala de Bristol, um método que classifica as fezes em sete tipos, variando de pedras duras a fezes líquidas.

Segundo a descrição do aplicativo, a IA avalia consistência, cor, formato e outros fatores para fornecer um “score diário de saúde intestinal”. Além disso, o PoopCheck conta com uma comunidade online onde usuários compartilham imagens de suas fezes, recebem comentários e acumulam pontos por participação. Até o momento da publicação, a comunidade possuía mais de 151 mil “fezes compartilhadas”.

As postagens na comunidade incluem títulos como “como massa de modelar” ou “preocupado”, e muitos usuários discutem possíveis problemas de saúde, como parasitas ou câncer de cólon. Em alguns casos, comentários sugerem tratamentos não comprovados, como o uso de ivermectina.

O criador do banco de dados afirmou que as imagens são “extremamente raras” e podem ter valor para treinamento de algoritmos de machine learning ou estudos médicos, como pesquisas sobre câncer. No entanto, ele ainda não definiu um preço ou um comprador adequado para a transação.

Reações ao anúncio foram majoritariamente negativas. Comentários como “Quando eu tinha 5 anos, a professora me ensinou a ler. Agora me arrependo” e “Como deletar uma postagem de outra pessoa?” dominaram as respostas. Mesmo assim, o usuário se mostrou disposto a negociar o acesso ao banco de dados com interessados.

A situação levanta questões sobre a privacidade e o uso de dados sensíveis em aplicativos de saúde, além dos limites éticos na coleta e comercialização de informações pessoais para treinamento de IA.