Conteúdos "tóxicos" do Facebook têm alcance maior no Brasil, mostram documentos inéditos vazados

Revelações do "Facebook Papers", baseadas em documentos internos da empresa, mostram que o Brasil é considerado "país de risco" para conteúdos de baixa qualidade, como discurso de ódio e desinformação

Facebook (Foto: Divulgação)
Escrito en REDES SOCIAIS el

O alcance de de "conteúdos tóxicos" do Facebook, isto é, discurso de ódio, desinformação, violência explícita, desencorajamento cívico e outros tipos de postagens de "baixa qualidade", é "particularmente maior no Brasil". É o que mostram documentos internos da empresa de Marck Zuckerberg vazados ao consórcio jornalístico "Facebook Papers".

Estudos e relatórios da rede social foram vazados por um ex-funcionário e parte deles mostra que o Brasil é considerado "país de risco" para esses "conteúdos tóxicos", ao lado de Índia, Egito, Turquia e Filipinas.

Em 2020, o Facebook questionou usuários sobre suas percepções com relação a conteúdos com discursos de ódio, organizações perigosa, incitação à violência e outros pontos. O Brasil consta como o país com maior alcance deste tipo de conteúdo, segundo reportagem do Estadão, que teve acesso aos documentos vazados.

"Olhando para a rede social Facebook, os brasileiros têm a maior probabilidade de sentirem efeitos negativos de discurso cívico inflamatório (69%), violência explícita (71%), discurso de ódio (76%), nudez (67%), terrorismo (74%) e exposição indevida de menores (84%). No caso de discurso de ódio, especificamente, o País está 11 pontos percentuais à frente da Indonésia, que aparece com a segunda pior marca na categoria", diz um trecho da reportagem.

Em nota, o Facebook, que diante dos escândalos, recentemente, mudou o nome para "Meta", afirmou que "a premissa central nestas histórias é falsa".

“Sim, somos um negócio e temos lucro. Mas a ideia de que lucramos às custas do bem-estar e da segurança das pessoas não compreende onde residem nossos próprios interesses comerciais", diz o texto.

Fortalecimento da extrema direita

Em outubro, o consórcio "Facebook Papers" divulgou acusações que dão conta, em sua maioria, de que a rede social contribuiu para a disseminação de fake news, e inclusive para a mobilização de grupos de extrema direita, o que culminou na invasão ao Capitólio , nos EUA, em 6 de janeiro, que deixou cinco mortos.

Os documentos provam as revelações feitas no em setembro por Frances Haugen, uma ex-gerente de produtos do Facebook. Segundo ela, a rede de Zuckerberg mentiu sobre o combate ao discurso de ódio, violência e fake news na plataforma. Frances disse que o Facebook desmontou sua equipe de “integridade cívica” logo após a eleição de 2020, assim que Joe Biden foi declarado vencedor.

Funcionários alertaram sobre fake news

Reportagem recente do The New York Times mostra que funcionários do Facebook alertaram durante anos sobre a desinformação e potencial risco de radicalizar os usuários da plataforma e solicitaram uma ação – mas a empresa falhou para resolver os problemas.

Embora a rede social tenha culpado Trump pela disseminação de notícias falsas, vários funcionários acreditam que poderia ter sido feito mais para evitar a proliferação de fake news. O alerta veio, inclusive, através de um estudo interno, intitulado “Jornada de Carol para QAnon”, feito por uma pesquisadora do Facebook.

Em julho de 2019, ela criou uma conta teste se passando por uma “mãe conservadora” da Carolina do Norte e, uma semana depois, começou a receber recomendações de conteúdo de teorias da conspiração.

Ela seguiu, então, as páginas da Fox News e da Sinclair Broadcasting e, em poucos dias, vieram sugestões para seguir páginas e grupos relacionados ao QAnon, incluindo uma fake news de que Trump estaria enfrentando uma conspiração obscura feita por pedófilos democratas.

Algum tempo depois, a mesma pesquisadora criou uma conta teste com um perfil esquerdista e descobriu que os algoritmos do Facebook a alimentavam com memes de “baixa qualidade” e desinformação política. Ela deixou a empresa em agosto de 2020, mesmo mês em que o Facebook reprimiu as páginas e grupos do QAnon.

Em seu pedido de demissão, divulgado pelo “BuzzFeed News”, ela disse que o Facebook estava “conscientemente expondo os usuários a riscos de danos à integridade” e citou a lentidão da empresa em agir contra o QAnon como um dos motivos para sua saída.

“Já sabemos há mais de um ano que nossos sistemas de recomendação podem levar os usuários rapidamente ao caminho de grupos e teorias de conspiração”, escreveu. “Nesse meio tempo, o grupo extremista QAnon ganhou proeminência nacional, com candidatos ao Congresso.”