Comitê de supervisão do Facebook diz rede social não é clara sobre suas regras


Grupo que funciona como alta corte da plataforma lançou relatório sobre sua atuação e indicou que empresa não responde a todas as duas demandas. Facebook logo
REUTERS/Dado Ruvic/Illustration/File Photo
O comitê de supervisão do Facebook, grupo que funciona como alta corte da plataforma sobre as decisões de moderação de conteúdo da rede social, lançou nesta quinta-feira (21) um relatório de transparência sobre as recomendações feitas à plataforma.
O documento detalha quais foram suas decisões sobre os casos revisados desde o 4º trimestre de 2020, quando iniciou sua atuação, e como o Facebook respondeu a cada uma delas.
De acordo com o grupo, a plataforma ainda não é clara e deixa as pessoas “adivinharem” suas regras sobre a remoção de posts.
Em um dos primeiros casos analisados, o Facebook removeu um conteúdo mas não especificou qual regra foi infringida, enquanto em outro não houve análise do apelo feito pelo usuário.
SAIBA MAIS:
Críticos do Facebook lançam ‘conselho de supervisão’ rival
Facebook diz que mais reportagens com documentos vazados devem ser publicadas em breve
“Muitos podem se identificar com a experiência de ter seu conteúdo removido com poucas explicações sobre o que fizeram de errado”, escreveu o comitê.
O grupo foi convidado pelo Facebook para analisar o sistema de “checagem cruzada”, uma ferramenta que isentaria personalidades das regras da rede social, segundo uma reportagem do “Wall Street Journal”, mas disse que a plataforma ainda não tem sido “totalmente comunicativa” sobre o tem.
O relatório aponta que embora a rede social responda a maioria das perguntas feitas pelo comitê, em 9% das ocasiões ela se recusou enviar mais informações e em 8% respondeu parcialmente.
Até aqui, o comitê de supervisão analisou 11 casos (a partir deles, são feitas recomendações que devem valer para casos similares) – em 8 deles a recomendação do conselho revertia a decisão original do Facebook.
Foram realizadas 52 recomendações de ajustes nas políticas da plataforma sobre conteúdo, execução das regras ou transparência.
O relatório indica ainda o Facebook identificou 38 decisões incorretas durante a pré-seleção dos casos que seriam investigados pelo grupo.