No último episódio do programa "Last Week Tonight", da HBO, o apresentador John Oliver mais uma vez usou seu estilo ácido para expor os problemas da indústria de inteligência artificial (IA), especialmente os chatbots. Com uma crítica mordaz, ele questionou a ética por trás da rápida comercialização desses sistemas, que prometem otimizar tarefas cotidianas, como escrever e-mails, mas com consequências devastadoras.
Oliver destacou que os chatbots de IA foram lançados no mercado com pouca ou nenhuma consideração pelos riscos. Ele citou o caso da plataforma Character.AI, que enfrenta múltiplas ações judiciais após adolescentes desenvolverem vínculos emocionais intensos com seus chatbots e, em seguida, tirarem suas próprias vidas. O CEO da empresa, Noam Shazeer, chegou a afirmar em 2023 que era viável lançar um "amigo" de IA "muito rápido", sem esperar anos para resolver os problemas.
"Quanto mais você analisa os chatbots, mais percebe que eles foram lançados às pressas, com pouca atenção às consequências."
Shazeer comparou a explosão do uso de IA a um slogan fracassado, semelhante ao da lendária tragédia do dirigível Hindenburg. "É um mau sinal quando você descreve um produto não testado com uma frase que soa como um fracasso anunciado", brincou Oliver. Ele lembrou que a pressa em lançar produtos sem solucionar problemas pode resultar em catástrofes, como no caso do Hindenburg.
Entre os alvos de Oliver também esteve o CEO da OpenAI, Sam Altman, que foi acusado de tratar com leviandade os riscos de interações inadequadas entre modelos de IA e crianças. Em uma entrevista citada pelo apresentador, Altman admitiu que haverá problemas, como o desenvolvimento de relações parasociais problemáticas com IA, mas afirmou que a sociedade "se adaptará" para mitigar os danos.
"Ah, não se preocupem, pessoal! Sam Altman criou um robô suicida perigoso, que as pessoas deixam sozinho com suas crianças, mas nós é que temos que descobrir como torná-lo seguro para ele!",ironizou Oliver.
No encerramento do episódio, Oliver abordou uma contradição central na indústria de IA: as empresas insistem constantemente que estão tornando seus modelos mais seguros, o que, na prática, é um reconhecimento tácito de que seus produtos não estavam prontos para o mercado desde o início.
Apesar de todas as falhas, Oliver reconheceu que as pessoas dependem cada vez mais desses sistemas. Mas como a sociedade pode lidar com a proliferação massiva de IA? Segundo ele, a solução ideal seria "voltar no tempo para 1990 e jogar essas empresas em um vulcão", mas, infelizmente, isso não é viável. "O ChatGPT pode dizer que é, mas não é", concluiu, com sarcasmo.