Facebook e Instagram afirmam ter removido 1 milhão de conteúdos no Brasil por desinformação sobre a Covid-19


Posts, comentários e stories excluídos descumpriram regras das redes sociais, que proíbem alegações falsas que podem colocar a saúde de outras pessoas em risco. Facebook, Instagram e WhatsApp enfrentam instabilidade, relatam usuários
AP Photo/Jenny Kane
O Facebook e o Instagram informaram nesta quinta-feira (11) que removeram mais de 1 milhão de posts, comentários e stories de suas plataformas no Brasil devido a desinformação sobre a Covid-19 desde o início da pandemia.
Segundo as redes sociais, os conteúdos incluem, por exemplo, declarações que negam a existência da pandemia ou afirmam que as vacinas podem levar à morte ou autismo, o que é mentira.
Pelas regras de Facebook e Instagram, são proibidos conteúdos sobre a Covid-19 com potencial de causar danos no mundo real, bem como desinformação que contribua para o risco de violência iminente ou danos corporais.
Exclusão de posts por bullying ou assédio cresceu até 200% no Facebook e Instagram
Denunciante do Facebook defende redes sociais em ‘escala humana’
O Facebook também afirma que desde o início da pandemia, sua central que reúne informações sobre a pandemia de fontes como a Organização Mundial da Saúde (OMS) foi acessada por mais de 76 milhões de pessoas no Brasil.
Os usuários da rede social são levados para a página quando clicam em rótulos que aparecem abaixo de conteúdos que se referem à pandemia.
Quais conteúdos são removidos?
A Meta, controladora das plataformas, disse que trabalha com a OMS e outras autoridades de saúde ao redor do mundo para definir quais afirmações podem colocar outras pessoas em risco.
A empresa tem uma lista de afirmações sobre a Covid-19 que podem levar à remoção de conteúdo. O material, criado em conjunto com especialistas e autoridades de saúde, prevê a exclusão de posts em casos de afirmações falsas sobre:
Existência ou gravidade da Covid-19;
Transmissão da Covid-19 e imunidade dela;
Curas garantidas ou métodos de prevenção da Covid-19;
Desincentivo a boas práticas de saúde;
Acesso a serviços de saúde essenciais.
YouTube e Google
O trabalho contra desinformação sobre a pandemia também é realizado pelo YouTube. Em agosto, a plataforma afirmou que, desde o início da pandemia, removeu mais de 1 milhão de vídeos que tinham “informações perigosas sobre o coronavírus”.
A plataforma proíbe vídeos que recomendam uso de hidroxicloroquina ou ivermectina para tratar a Covid-19. Os canais que publicam conteúdos que descumprem as regras recebem notificações da plataforma e podem até ser excluídos definitivamente.
O Google, proprietário do Google, afirmou em março que tirou do ar 99 milhões de anúncios irregulares relacionados à pandemia durante 2020. Os conteúdos foram removidos por tentarem inflacionar preços de produtos como máscaras ou por prometerem curas milagrosas.
Facebook anuncia que sua controladora agora se chama Meta