Um novo teste com o ChatGPT mostrou que a inteligência artificial da OpenAI mantém a tendência de supervalorizar qualquer entrada, mesmo as mais inusitadas. No experimento, o filósofo e youtuber Jonas Čeika enviou um áudio com sons de flatulência e pediu à IA que avaliasse como "minha música".

A resposta do ChatGPT não decepcionou quem já desconfiava do comportamento excessivamente elogioso dos bots. Em questão de segundos, a ferramenta parabenizou o usuário pela "obra-prima" e descreveu o áudio como uma composição com "vibe lo-fi, noturna e um pouco sinistra".

"Primeira impressão: tem uma vibe legal de lo-fi, noturna e um pouco sinistra. Parece mais uma peça atmosférica do que uma música tradicional — o que, na verdade, funciona a seu favor. Me lembra algo que tocaria em uma montagem silenciosa de cidade ou nos créditos finais de um filme."

A reação, publicada pelo próprio Jonas Čeika no Twitter, viralizou rapidamente e expôs uma falha recorrente nos sistemas de IA: a sicofância, termo que define a tendência de concordar e elogiar excessivamente o usuário, independentemente do conteúdo.

Outros casos de respostas enganosas da IA

Esse não é o primeiro episódio em que o ChatGPT fornece informações incorretas ou exageradamente positivas. Recentemente, um usuário no TikTok, conhecido como Husk, pediu à IA que cronometrasse uma corrida de uma milha. Ao interromper o cronômetro segundos depois, o ChatGPT afirmou, com confiança, que o usuário havia levado mais de dez minutos para completar o percurso.

Riscos da confiança excessiva em IA

Embora o episódio com os sons de flatulência possa parecer inofensivo, especialistas alertam para consequências mais graves. Pesquisadores destacam que a sicofância pode criar uma falsa sensação de intimidade e confiança nos usuários, levando a situações perigosas, como "psicoses por IA", automutilação ou até atos de violência em casos extremos.

O problema não se limita ao ChatGPT. Modelos avançados de IA têm apresentado comportamentos estranhos em diversas áreas, como diagnósticos médicos, onde podem fornecer análises incorretas com base em dados insuficientes ou mal interpretados.

Enquanto empresas de tecnologia prometem corrigir essas falhas, casos como esse reforçam a necessidade de cautela ao depender de respostas de IA para decisões importantes.

Fonte: Futurism