Conversas vazadas revelam ordem de Moraes para endurecer contra o X de Elon Musk e questionam eficácia da moderação comunitária
Em março de 2023, conversas vazadas revelaram a estratégia de Alexandre de Moraes, então presidente do Tribunal Superior Eleitoral (TSE), para endurecer a postura contra a plataforma X (antigo Twitter), após a aquisição da empresa por Elon Musk. As mensagens, trocadas em um grupo de WhatsApp entre auxiliares de Moraes no TSE e membros da Assessoria Especial de Enfrentamento à Desinformação (AEED), revelam as preocupações do ministro com as novas diretrizes de moderação da rede social e sua insatisfação com a resistência da plataforma em seguir as exigências do tribunal. Esses diálogos também levantam questões sobre a eficácia da moderação comunitária promovida pelo X.
As mensagens datadas de março de 2023 surgem em um contexto pós-eleitoral, onde Moraes estava preocupado com o impacto da desinformação nas redes sociais sobre a estabilidade democrática do Brasil. Cinco meses após as eleições presidenciais, e com Elon Musk já no controle do X, Moraes começou a notar uma mudança na forma como a plataforma tratava pedidos de remoção de conteúdo.
Em uma das conversas, Marco Antônio Vargas, juiz auxiliar de Moraes no TSE, repassou ao grupo uma mensagem do ministro: “Então vamos endurecer com eles. Prepare relatórios em relação a esses casos e mande para o inquérito das fake news. Vou mandar tirar sob pena de multa”, escreveu Moraes. A insistência do ministro era clara: ele estava disposto a usar o poder do tribunal para forçar a plataforma a agir contra a disseminação de informações que ele considerava prejudiciais.
Frederico Alvim, membro da AEED, explicou ao grupo como a nova política de moderação comunitária do X funcionava. Ele destacou que, sob a liderança de Musk, a equipe de moderação deixou de tomar decisões de forma centralizada, passando a adotar um modelo colegiado, o que dificultava a aplicação de medidas específicas solicitadas pelo TSE.
Alvim relatou as dificuldades em conseguir que o X tomasse medidas contra publicações consideradas ofensivas ou desinformativas, enfatizando que, para a nova administração do X, a moderação só deveria ocorrer em casos de discurso de ódio ou quando houvesse um risco tangível de violência. Ele mencionou que conceitos como “risco à democracia” não eram tangíveis o suficiente para justificar a remoção de conteúdo, segundo as novas diretrizes da plataforma.
A implementação da moderação comunitária foi vista por muitos como uma forma de democratizar o controle de conteúdo, permitindo que os próprios usuários do X tivessem voz ativa na identificação e remoção de publicações prejudiciais. No entanto, as conversas vazadas entre os membros do TSE levantam dúvidas sobre a eficácia desse modelo, especialmente em situações onde o conteúdo, apesar de nocivo, não necessariamente incitava violência ou violava diretamente as diretrizes de segurança.
O modelo de moderação comunitária, embora potencialmente capaz de reduzir a propagação de conteúdo ofensivo, depende da vigilância e do engajamento dos usuários. Isso pode ser insuficiente em cenários de desinformação massiva ou de manipulação de informações sensíveis, como os que ocorreram no período eleitoral brasileiro. Além disso, a descentralização das decisões de moderação pode levar a inconsistências na aplicação das regras, o que se torna crítico em um contexto de alta polarização política.
A dificuldade em alinhar as expectativas do TSE com as novas políticas da plataforma levou Moraes a buscar formas mais drásticas de intervenção, incluindo a ameaça de multas e sanções judiciais. Em uma mensagem reencaminhada no grupo, Moraes afirmou sua determinação em “endurecer com eles”, sugerindo que a moderação comunitária não seria suficiente para garantir a integridade das informações disseminadas na plataforma.
Enquanto Moraes via a moderação comunitária como inadequada para enfrentar os desafios de desinformação no Brasil, a administração do X, sob Musk, priorizava uma abordagem que enfatizava a liberdade de expressão e a segurança dos usuários. Essa divergência de perspectivas criou um conflito que ilustra os desafios de harmonizar as práticas de moderação de conteúdo com as exigências legais e sociais de diferentes países.