Facebook não apaga todas as postagens que violam as regras, diz jornal; rede social diz que limita a circulação do discurso de ódio


Reportagem do ‘The Wall Street Journal’, com base em documentos internos, diz que a rede social não apaga a maioria das postagens que descumprem as regras e disseminam ódio e violência e também deixa os autores impunes. Facebook diz que utiliza inteligência artificial e revisores para detectar conteúdos impróprios, que são vistos por menos usuários. Na tradução para o português, reportagem diz: O Facebook afirma que a inteligência artificial limpará a plataforma. Seus próprios engenheiros têm dúvidas. A IA tem apenas um sucesso mínimo na remoção de incitação ao ódio, imagens violentas e outros conteúdos problemáticos, de acordo com relatórios internos da empresa
Reprodução/The Wall Street Journal em 17 de outubro de 2021
O jornal “The Wall Street Journal” publicou neste domingo (17) uma reportagem que evidencia, mais uma vez, a omissão do Facebook quanto a conteúdos de ódio e violência excessiva. Mark Zuckerberg é CEO do Facebook, que integra um grupo também formado por WhatsApp e Instagram.
Segundo documentos internos a que o jornal teve acesso, a rede social apaga poucas postagens que violam as regras por discurso de ódio e tampouco pune os autores desses conteúdos.
A reportagem diz ainda que a inteligência artificial do Facebook não é capaz de detectar conteúdos impróprios, que continuam publicados na plataforma.
Vazamento no Facebook: o que novo escândalo revela sobre práticas da empresa
Por que algoritmos das redes sociais estão cada vez mais perigosos, na visão de pioneiro da Inteligência Artificial
Mark Zuckerberg se defende de acusações um dia após pane no Facebook, no WhatsApp e no Instagram: ‘Não é verdade que priorizamos o lucro’
O jornal afirma que, quando o algoritmo da rede social não tem certeza de que o conteúdo viola as regras, ele opta por mostrar o conteúdo com menos frequência aos usuários da rede social.
Apesar disso, os documentos a que o Facebook teve acesso mostram que a rede social decidiu há dois anos diminuir o tempo em que os revisores humanos se dedicavam a analisar denúncias de discurso de ódio e tomou medidas para reduzir também as reclamações dessa categoria.
As informações apuradas pelo jornal contrastam com afirmações de executivos do Facebook de que a inteligência artificial resolveria esses problemas da empresa.
Em nota publicada neste domingo (17), o vice-presidente de integridade do Facebook, Guy Rosen, diz que a rede social foca em reduzir a quantidade de vezes que esse conteúdo é visto pelos usuários e que a tecnologia tem tido um impacto no combate ao discurso de ódio.
Ainda de acordo com Rosen, a rede social utiliza tecnologia para detectar esses conteúdos de forma proativa, encaminhá-los para os revisores e, por fim, apagá-los do Facebook.
“Dados extraídos de documentos que vazaram estão sendo usados ​​para criar uma narrativa de que a tecnologia que usamos para combater o discurso de ódio é inadequada e que representamos erroneamente nosso progresso. Isso não é verdade”, diz a nota.
“Não queremos ver ódio em nossa plataforma, nem nossos usuários ou anunciantes, e somos transparentes sobre nosso trabalho para removê-lo. O que esses documentos demonstram é que nosso trabalho de integridade é uma jornada de vários anos. Embora nunca sejamos perfeitos, nossas equipes trabalham continuamente para desenvolver nossos sistemas, identificar problemas e criar soluções.”
Site do Facebook traz nota: a prevalência do discurso de ódio caiu quase 50% no Facebook
Reprodução/Facebook em 17 de outubro de 2021
Declarações de Frances Haugen
A reportagem do “The Wall Street Journal” foi publicada em um mês já bastante conturbado para a rede social. Em 4 de outubro, a empresa sofreu um apagão, quando Facebook, WhatsApp e Instagram ficaram fora do ar por seis horas em uma pane global. Também naquele dia Frances Haugen, ex-gerente de produtos do Facebook, disse que a empresa coloca lucros acima da segurança, esconde informação e tem ciência de que as redes sociais podem ser perigosas para crianças.
Frances Haugen, ex-funcionária do Facebook, em entrevista à emissora americana CBS News
CBS News/60MINUTES via REUTERS
Quem é Frances Haugen, a engenheira que quer ‘salvar’ o Facebook
Produtos do Facebook prejudicam crianças e enfraquecem democracia, diz delatora ao Senado dos EUA
Senadora norte-americana pede que Mark Zuckerberg retenha documentos relacionados a depoimento de ex-gerente
“Eles querem que você acredite entre ter uma rede social cheia de conteúdo polarizador ou liberdade de expressão”.
“O Facebook percebeu que se mudar o algoritmo para ser mais seguro, as pessoas vão passar menos tempo no site, vão clicar em menos anúncios, e eles vão ganhar menos dinheiro.”
Ex-funcionária do Facebook acusa a rede social de prejudicar crianças e enfraquecer a democracia
O que diz o Facebook
Em resposta, Mark Zuckerberg, fundador do Facebook, publicou na rede social que a organização se preocupa “profundamente com questões como segurança, bem-estar e saúde mental” e disse que há uma “falsa imagem que está sendo pintada da empresa”.
Ele também declarou não ser verdade que o Facebook prioriza o lucro em vez da segurança e bem-estar dos seus usuários. “Isso simplesmente não é verdade”, escreveu.
Dono do Facebook rebate acusações de ex-funcionária e pede mais regulação para internet