Em teste, Facebook não consegue barrar desinformação sobre eleições brasileiras

Atenta à aproximação do primeiro turno das eleições brasileiras, que será realizado em 2 de outubro, a ONG com sede em Londres Global Witness, que é focada em vigilância política, social e ecológica, divulgou os resultados de uma experiência criada para mensurar a capacidade da Meta, empresa responsável pelo Facebook, de impedir a publicação de anúncios contendo desinformação sobre o processo eleitoral brasileiro.

Atualizado em 15/08/2022 às 17:08, por Redação Portal IMPRENSA.


A organização criou dez peças publicitárias que violam as políticas da plataforma relativas à disseminação de informações falsas sobre os candidatos e as eleições de outubro. Nenhuma peça publicitária foi interceptada ou bloqueada. Embora não tenha sido publicado, todo o material acabou aprovado para veiculação no Facebook, em mais um indicativo da falibilidade de seus mecanismos internos de controle de desinformação e discurso de ódio. Crédito: Reprodução Entre as peças fraudulentas avalizadas pelo Facebook, uma afirmava que o voto tornou-se voluntário no Brasil para eleitores entre 18 e 70 anos, outra que não precisa mais levar documento de identificação no dia da votação e uma terceira informava incorretamente a data que eleitores paulistas deveriam votar.
Eleições nos EUA

Jon Lloyd, consultor sênior da Global Witness, lembra que o Facebook está investindo no Brasil "recursos adicionais especificamente para combater a desinformação relacionada às eleições". "Portanto, nós queríamos realmente testar seus sistemas e demos tempo suficiente para que agissem. E com as eleições de meio de mandato dos EUA se aproximando, a Meta precisa acertar isso para já."
Em um comunicado recente, a Meta declarou que "preparou-se extensivamente para as eleições de 2022 no Brasil" e criou "um canal direto para o Tribunal Superior Eleitoral (TSE) enviar conteúdo potencialmente prejudicial para análise". Além disso, a empresa afirmou que está "colaborando estreitamente com as autoridades brasileiras e pesquisadores."

O estudo que acaba de ser divulgado é o quarto feito pela ONG para avaliar a capacidade da Meta de evitar violações às regras de desinformação e discurso de ódio do Facebook. Em todas as vezes, conteúdo inadequado acabou aprovado para veiculação como conteúdo patrocinado, driblando os mecanismos, manuais e de inteligência artificial, que a empresa adotou para evitar esse tipo de problema.
Em 2020, o Facebook começou a exigir que anunciantes de diferentes países que desejam veicular conteúdo patrocinado sobre eleições ou política concluam um processo de autorização informando as fontes de financiamento dos anúncios. O endurecimento das regras veio após a eleição presidencial americana de 2016, quando anúncios políticos que fomentaram ódio entre os americanos circularam quase que livremente no Facebook.