Vazamento no Facebook: o que novo escândalo revela sobre práticas da empresa


Documentos vazados parecem revelar novo problema interno do Facebook: o descontentamento de funcionários. Documentos vazados parecem revelar novo problema interno do Facebook: o descontentamento de funcionários
Richard Drew/AP
O Facebook enfrentou nos últimos dias uma série de acusações sobre seu funcionamento interno, após revelações do jornal americano Wall Street Journal e de outros veículos.
Muitas das informações vêm de próprios documentos internos do Facebook, sugerindo que pessoas de dentro da empresa estão vazando informações para a imprensa.
Os documentos representam bastante trabalho para governos e reguladores, que terão de analisar tudo que foi revelado e considerar quais medidas tomar, se forem cabíveis.
O Facebook se defendeu de todas as acusações feitas na imprensa.
Facebook é questionado devido a possível risco à privacidade em óculos inteligentes
Aqui estão cinco informações que foram reveladas nos últimos dias:
Celebridades foram tratadas de forma diferente pelo Facebook
De acordo com reportagem do Wall Street Journal, muitas celebridades, políticos e usuários de alto nível do Facebook eram submetidos a regras diferentes sobre o conteúdo que podem postar, em um sistema conhecido como XCheck (verificação cruzada).
Uma das celebridades citadas pelo jornal americano foi o jogador de futebol Neymar.
“Em 2019, foi permitido que o astro do futebol internacional Neymar mostrasse fotos de uma mulher nua, que o acusou de estupro, para dezenas de milhões de fãs antes que o conteúdo fosse removido pelo Facebook.”
As regras do Facebook estipulam que as fotos de nudez não autorizadas devem ser excluídas, e que as pessoas que as publicam devem ter suas contas excluídas. Mas a conta de Neymar não foi excluída. Um porta-voz de Neymar disse ao Wall Street Journal que o atleta segue as regras do Facebook e não comentou o caso em mais detalhes.
O Facebook admitiu que as críticas à maneira como implementou seu sistema de verificação cruzada são “justas” — mas disse que o sistema foi projetado para criar “uma etapa adicional” quando o conteúdo postado exige maior compreensão.
“Isso pode incluir ativistas que estão alertando para casos de violência ou jornalistas fazendo reportagens em zonas de conflito”, diz o Facebook.
O Facebook afirma que muitos documentos citados pelo Wall Street Journal continham “informações desatualizadas e costuradas juntas para criar uma narrativa que encobre o ponto mais importante: o próprio Facebook identificou os problemas com verificação cruzada e vem trabalhando para resolvê-los”.
Apesar da nota, o próprio Conselho de Supervisão (Oversight Board) do Facebook, que a empresa criou para tomar decisões sobre moderação de conteúdo considerado complexo, exigiu mais transparência.
Em um post em um blog esta semana, o Conselho disse que as divulgações “atraíram atenção renovada para a maneira aparentemente inconsistente como a empresa toma decisões”.
O Conselho pediu uma explicação detalhada de como funciona o sistema de verificação cruzada e alertou que a falta de clareza pode contribuir para a percepção de que o Facebook foi “indevidamente influenciado por considerações políticas e comerciais”.
Desde que começou seu trabalho investigando como o Facebook modera o conteúdo, o Conselho de Supervisão, financiado pelo Facebook, fez 70 recomendações sobre como a empresa deve melhorar suas políticas. Agora, o Conselho criou uma equipe para avaliar como a rede social implementa essas recomendações.
Comitê de supervisão do Facebook quer explicações sobre sistema que isentaria personalidades de regras
A resposta do Facebook às preocupações dos funcionários sobre o tráfico de pessoas foi muitas vezes ‘fraca’
Os documentos relatados pelo Wall Street Journal também sugeriam que os funcionários do Facebook frequentemente alertavam para cartéis de drogas e traficantes de pessoas presentes na plataforma, mas que a resposta da empresa foi “fraca”.
Em novembro de 2019, a BBC News Arabic, serviço de notícias em árabe da BBC, fez uma reportagem chamando atenção para a compra e venda de trabalhadoras domésticas no Instagram.
De acordo com documentos internos, o Facebook já tinha conhecimento do assunto. O Wall Street Journal relatou que o Facebook tomou apenas pequenas medidas, até que a Apple ameaçou remover seus produtos de sua App Store.
Em sua defesa, o Facebook disse ter uma “estratégia abrangente” para manter as pessoas seguras, incluindo “equipes globais com pessoas fluentes em idiomas locais cobrindo mais de 50 línguas, recursos educacionais e parcerias com especialistas locais e verificadores terceirizados”.
Os críticos alertam que o Facebook não tem meios para moderar todo o conteúdo de sua plataforma e proteger seus 2,8 bilhões de usuários.
David Kirkpatrick, autor do livro O Efeito Facebook, disse à BBC que achava que o Facebook não tinha motivação “para fazer nada para reparar danos” que acontecem fora dos EUA.
“Eles fizeram muitas coisas, incluindo a contratação de dezenas de milhares de revisores de conteúdo”, disse ele.
“Mas uma estatística que me chamou atenção nas reportagens do Wall Street Journal foi que, apesar de todo o trabalho deles contra desinformação em 2020, apenas 13% disso aconteceu fora dos EUA. Para um serviço que está 90% fora dos EUA — e que teve um impacto enorme, de forma muito negativa, na política de países como Filipinas, Polônia, Brasil, Hungria, Turquia — eles não estão fazendo nada para remediar tudo isso.”
Kirkpatrick acredita que o Facebook só “respondeu às pressões de relações públicas” nos EUA porque elas poderiam afetar o preço de suas ações.
Algoritmo do Facebook classifica vídeo com homens negros como imagem de primata
Facebook enfrenta um grande processo de acionistas
O Facebook também está enfrentando um processo complexo de um grupo de seus próprios acionistas.
O grupo alega, entre outras coisas, que o pagamento de US$ 5 bilhões (cerca de R$ 26 bilhões) do Facebook à Comissão Federal de Comércio dos EUA para resolver o escândalo de dados da Cambridge Analytica foi dessa magnitude apenas porque foi concebido para proteger Mark Zuckerberg de responsabilização pessoal.
O Facebook afirmou que não vai se manifestar sobre essa questão legal.
O Facebook tem promovido histórias positivas sobre si mesmo na plataforma?
Esta semana, o New York Times sugeriu que o Facebook havia criado uma iniciativa para injetar conteúdo pró-Facebook nos feeds de notícias das pessoas, a fim de impulsionar sua própria imagem.
O jornal disse que o Projeto Amplify foi concebido para “mostrar às pessoas histórias positivas sobre a rede social”.
O Facebook disse que não houve mudanças em seus sistemas de organização do feed de notícias.
Em uma série de tuítes, o porta-voz da empresa, Joe Osborne, disse que o teste do que ele chamou de “uma unidade informativa no Facebook” foi pequeno e só aconteceu em “três cidades”, com postagens claramente rotuladas como sendo provenientes da empresa.
Ele disse que a iniciativa foi “semelhante às iniciativas de responsabilidade corporativa que as pessoas veem em outras tecnologias e produtos de consumo”.
O Facebook sabia que o Instagram é ‘tóxico’ para os adolescentes
Outra revelação sobre o Facebook foi a descoberta de que a empresa havia conduzido uma pesquisa detalhada sobre como o Instagram estava afetando adolescentes, mas não compartilhou resultados que sugeriam que a plataforma é um lugar “tóxico” para muitos jovens.
De acordo com slides relatados pelo Wall Street Journal, 32% das adolescentes do sexo feminino na pesquisa disseram que quando se sentiam mal com seus corpos, o Instagram as fazia se sentir pior.
A rede Fox News informou esta semana que o informante por trás do documento vazado pretende revelar sua identidade e que vai cooperar com o Congresso.
Isso acontecendo ou não, o fato de o Facebook não ter compartilhado seus próprios estudos detalhados sobre os danos que suas plataformas causam está dando aos políticos americanos muito o que pensar.
Vídeos: tire dúvidas sobre vazamentos de dados