Facebook cria órgão independente para lidar com questões de direitos humanos e liberdade de expressão

Conselho moderador, que tem 20 membros, conta com o brasileiro Ronaldo Lemos, um ex-diretor do Guardian e uma ganhadora do Nobel da Paz

Reprodução
Escrito en REDES SOCIAIS el

O Facebook anunciou um novo organismo ao qual a companhia e os usuários podem recorrer para tomar decisões sobre publicações que afetam a liberdade de expressão e os direitos humanos.  O fundador da rede social, Mark Zuckerberg, disse, em 2018, que tinha intenção de criar uma entidade fora da estrutura da empresa para moderar conteúdos. O novo conselho é composto por 20 pessoas de todo o mundo, de debaterão os limites da liberdade de expressão. As decisões serão de cumprimento obrigatório para a rede, desde que não entrem em conflito com leis locais. Os conteúdos suscetíveis a moderação serão os do Facebook e Instagram. O Whatsapp, outra plataforma da companhia, não está incluído.

Os membros do conselho, 10 mulheres e 10 homens, não são funcionários do Facebook nem podem ser demitidos por Zuckerberg. Na última quarta (6) foi anunciada a composição desse órgão, que contará personalidades como a ativista do Iemen Tawakul Kerman, ganhadora do Nobel da Paz de 2011, a ex-primeira-ministra dinamarquesa Helle Thorning-Schmidt, o jornalista britânico Alan Rusbridger, que dirigiu o jornal The Guardian por 20 anos. Ronaldo Lemos, advogado de propriedade tecnológica e intelectual e professor de Direito da Universidade Estadual do Rio de Janeiro (UERJ),é o único brasileiro da lista e um dos únicos latino-americanos, junto com a colombiana Catalina Botero-Marino, diretora da Faculdade de Direito da Universidade de Los Andes e, até 2014, relatora para a liberdade de expressão na Organização dos Estados Americanos.

O conselho assessor de conteúdo, ou oversight board conta com muitos perfis principalmente ao direito, ativismo digital e aos meios de comunicação. Eles ainda pretendem dobrar o número de membros até 2021.

A ideia do Facebook é terceirizar os limites da liberdade de expressão dos usuários, considerando os contextos de seus países. O Facebook já transferiu a verificação de conteúdos para organizações externas, que são as que assumem a avaliação sobre as publicações.

A empresa se comprometeu publicamente a cumprir as decisões do conselho. “Se não fizerem isso, o custo para a reputação seria muito alto”, disse Botero-Marino.

Inicialmente, o tribunal verá casos denunciados por usuários que tiveram conteúdo apagado pelo Facebook, mas depois permitirá os recursos de usuários que queiram pedir que se apague um conteúdo determinado. O conselho poderá decidir não só sobre publicações, também sobre anúncios ou grupos. Poderá também recomendar políticas ao Facebook baseadas nos veredictos.

“Sempre estive comprometido com a liberdade de expressão e de pensamento, mas o crescimento do Facebook criou novas oportunidades e desafios”, diz o juiz húngaro András Sajo, ex-vice-presidente do Tribunal Europeu de Direitos Humanos e um dos membros do conselho no site do projeto.

O conselho permitirá, de acordo com Botero-Marino, que os Estados pensem duas vezes sobre a questão de regular a rede: “A melhor maneira de manter a arquitetura atual da Internet e evitar a regulação de Estados é que as companhias se autorregulem”, disse. “Este é um bom exemplo porque inclui independência, transparência e diversidade."