O 'momento Big Tobacco' das redes sociais: um alerta insuficiente

O veredicto histórico de março na Califórnia, que responsabilizou Meta e Google por projetarem plataformas viciantes que prejudicam crianças, foi amplamente comparado ao "momento Big Tobacco" das redes sociais. A analogia, no entanto, pode ser enganosa. Enquanto a narrativa tradicional do tabaco é contada como uma vitória da justiça — com uma indústria maliciosa punida, vítimas ressarcidas e produtos perigosos regulamentados —, a realidade é mais complexa e revela lições importantes para o futuro das mídias sociais.

A armadilha da responsabilidade pessoal

A batalha jurídica contra a indústria do tabaco não foi vencida simplesmente porque os cigarros eram viciantes. O sucesso veio quando se provou que as empresas esconderam deliberadamente os riscos do tabagismo. Após a exposição dessas mentiras e a obrigatoriedade de advertências, a narrativa da "responsabilidade pessoal" voltou a dominar: adultos sabem dos riscos e, ainda assim, escolhem fumar.

Um caminho semelhante foi trilhado pela indústria de alimentos processados. Nos anos 1970, defensores do consumidor tentaram restringir a publicidade de junk food direcionada a crianças. A indústria reagiu com força, chegando a rotular a proposta como uma tentativa de "proteger crianças das fraquezas dos pais". Décadas depois, projetos de lei que protegiam as empresas de fast food de processos por obesidade foram aprovados na Câmara dos Deputados — embora tenham parado no Senado, leis semelhantes foram implementadas em vários estados. A mensagem era clara: obesidade é uma questão de força de vontade.

O veredicto da Califórnia: um avanço ou um falso começo?

O recente veredicto contra Meta e Google é celebrado como um marco na luta contra os danos causados pelas redes sociais. Mas será que ele realmente representa uma mudança de paradigma? A história do tabaco e dos alimentos processados sugere um padrão previsível: após a exposição dos danos, vêm as advertências, a responsabilização individual e, acima de tudo, a manutenção do produto tal como era.

As soluções já propostas em decorrência do veredicto seguem exatamente esse roteiro. Verificação de idade, controles parentais, configurações de notificações e avisos obrigatórios transferem a responsabilidade de proteção para os usuários (ou seus pais), enquanto os modelos de negócio das plataformas — que um júri considerou perigosos — permanecem inalterados.

O modelo de 'consentimento informado' e suas falhas

Essa abordagem remonta ao modelo de "notificação e consentimento", que há décadas domina a legislação de proteção ao consumidor nos EUA. Embora funcione para indústrias que buscam evitar responsabilidade sem mudar seus modelos de negócio, ele falha em proteger efetivamente os usuários. Plataformas como as das redes sociais são projetadas por especialistas com orçamentos milionários para serem impossíveis de largar — e agora cabe aos usuários, muitas vezes crianças, gerenciar sozinhos os riscos de um produto que foi deliberadamente criado para viciar.

"O modelo de 'consentimento informado' pede que indivíduos informados gerenciem sua própria exposição a danos. Mas como isso é possível quando o produto foi engenheirado para ser irresistível?"

O que vem a seguir?

O contra-argumento óbvio é que reformular essas plataformas prejudicaria todos os usuários, inclusive os adultos que as utilizam voluntariamente. No entanto, a pergunta que fica é: até que ponto a sociedade está disposta a aceitar que crianças sejam tratadas como cobaias de um experimento de design comportamental?

Se a história do tabaco e dos alimentos processados servir de lição, o veredicto da Califórnia pode ser apenas o primeiro passo — e não o suficiente para garantir mudanças reais. Enquanto as empresas mantiverem o controle sobre o design de seus produtos, a responsabilidade recairá sobre os ombros dos usuários, mesmo que eles sejam os mais vulneráveis.