‘Vou te matar’: a brincadeira que levou roteirista brasileiro a ser banido e ganhar processo contra o Twitter

oteirista brasileiro entrou na Justiça contra Twitter pedindo restabelcimento de sua conta, suspensa por 'conteúdo violento'

oteirista brasileiro entrou na Justiça contra Twitter pedindo restabelcimento de sua conta, suspensa por ‘conteúdo violento’
Reuters

“Eu vou te matar!”, escreveu o roteirista Marco Aurélio Góis no Twitter.

Era uma brincadeira. Góis, 44 anos, explica: a mensagem era dirigida a um amigo, o humorista Mauricio Meirelles, em resposta a uma provocação.

Fiz um erro de julgamento sobre Moro, mas não sobre Lula, diz José Padilha, diretor de ‘O Mecanismo’

’10 medidas’ defendidas por Moro e Dallagnol permitiriam que vazamentos fossem usados contra eles na Justiça

Mas não foi assim que o Twitter interpretou a expressão. A frase, publicada no ano passado, foi o suficiente para que a empresa decidisse que o conteúdo era violento, suspendendo a conta de Góis, que tinha mais de 30 mil seguidores, em janeiro daquele ano.

O tuíte e a decisão da plataforma deram origem a um imbróglio judicial. Em março, ele entrou no Juizado de Pequenas Causas contra o Twitter pedindo o restabelecimento de sua conta. “Não quero pedido de desculpas, não quero dinheiro, não quero nada, só quero a minha conta de volta”, diz, explicando que a página era importante para o seu trabalho como roteirista, uma espécie de carta de apresentação.

A Justiça de São Paulo decidiu que a empresa deveria, sim, reativar a conta do roteirista, sob pena de multa diária de R$ 100. Nada feito. O Twitter, até a semana retrasada, preferiu pagar multa — mais tarde aumentada para R$ 500 diários — a restabelecer a conta. Nos documentos do processo, para explicar a suspensão da conta, anexou o tuíte em questão, classificando o conteúdo como “manifestamente violento e ameaçador”. Depois, pediu para transformar a obrigação de reativar o perfil em perdas e danos.

Uma frase quase igual fez o publicitário Matheus Esperon, de 26 anos, perder sua conta no Twitter. Em cima de uma notícia que dizia que o presidente Jair Bolsonaro (PSL) acabaria com o horário de verão no Brasil, ele twittou “eu vou matar o presidente!”. O Twitter o baniu da rede.

 

“É lógico que eu não vou matar o presidente”, diz, explicando que era uma hipérbole, um exagero. “É completamente desmotivador isso, eu vou demorar literalmente ano ou anos para voltar para o patamar que eu estava.” Tinha 15 mil seguidores. A conta, explica, também era importante para sua vida profissional —recentemente havia começado a monetizar alguns tuítes, ou seja, ganhar dinheiro com o material postado. “Foi danoso pra caramba para a minha vida.” Ele ainda está recorrendo na plataforma.

Já Góis teve sua conta restaurada na sexta-feira (7) depois que, na quinta-feira (6), a BBC News Brasil entrou em contato com a assessoria de imprensa da empresa.

Em nota, a empresa disse ter “regras que determinam os conteúdos e comportamentos permitidos na plataforma”. “Com o objetivo de fazer a plataforma cada vez mais saudável, às vezes nos movemos rápido para aplicar as nossas regras e não temos o contexto completo. Qualquer pessoa pode recorrer a uma decisão pelo aplicativo e estamos continuamente aprimorando a forma como pessoas podem fazer isso.”

Nas regras da plataforma, sob o item “violência”, a plataforma diz não ser “permitido fazer ameaças específicas de violência nem desejar a um indivíduo ou grupo de pessoas danos físicos graves, morte ou doenças”.

Mas como é feita a identificação de discursos violentos ou discurso de ódio — e o que pode ter dado errado nos casos de Góis e Esperon?

Falsos positivos

O Twitter, assim como empresas como o Facebook, faz a moderação de seu conteúdo por meio de inteligência artifical e pessoas contratadas para complementar o trabalho. A inteligência artificial funciona como um filtro automatizado: máquinas são treinadas para identificar palavras ou expressões que podem designar violência ou ódio, a partir de classificações feitas por seres humanos. O material selecionado como potencialmente de ódio ou violência pode cair ou não nas mãos de pessoas que fazem a moderação. Questionado pela BBC News Brasil, o Twitter não divulga detalhes de como faz o procedimento.

“A ideia não é substituir os seres humanos. A inteligência artificial trabalha em maior escala — uma impossível para os seres humanos —, fazendo com que trabalhemos com mais eficiência”, diz à BBC News Brasil Delip Rao, vice-presidente de pesquisa em uma start-up de inteligência artificial de São Francisco, nos EUA, especializada em encontrar informações falsas online. O trabalho é feito por meio de processamento de linguagem natural – a mesma área de estudo que, por exemplo, facilita a vida dos seres humanos classificando automaticamente diversos e-mails como spam.

Computadores, no entanto, podem ter dificuldades para reconhecer discursos de ódio ou que incitem a violência. Há nuances linguísticas e contextos que explicam frases ou expressões — e que podem ir mudando ao longo do tempo. Rao explica que discursos violentos mudam constantemente, já que as pessoas alteram seu vocabulário.

É por isso que o sistema acaba identificando e removendo falsos positivos.

Computadores têm dificuldades para entender a frase “eu vou te matar” como uma brincadeira. Interpretada literalmente, a expressão pode trazer um aspecto intencional, o que de fato configuraria ameaça.

Além disso, o computador pode ter dificuldades em reconhecer piadas e brincadeiras. “Coisas como sarcasmo, conhecimento do mundo real, contexto, piadas internas que dependem do que se sabe entre duas pessoas… Incorporar isso é muito complexo, e talvez impossível”, diz o pesquisador. “Há coisas que nem humanos conseguiriam distinguir se não tivessem o contexto.”

“O algoritmo não consegue identificar uma piada. Como iria saber?”, questiona Marco Aurélio. Ele defende que “contas nazistas, contas que divulgam dados pessoais das pessoas, contas ameaçadoras ou violentas de verdade ou com discurso de ódio, racistas, homofóbicas” devam ser suspensas. “O que falta é o critério de uma pessoa que leia aquilo e entenda o contexto.”

Combatendo o verdadeiro discurso violento

As maiores empresas de redes sociais são constantemente cobradas em relação à moderação de seu conteúdo, ora por não retirar conteúdo violento das redes, ora por censurar quem não está de fato espalhando conteúdo violento.

No mês passado, o chefe de tecnologia do Facebook, Mike Schroepfer, chorou enquanto concedia uma entrevista ao jornal New York Times ao comentar sobre o vídeo ao vivo transmitido na plataforma pelo atirador que matou 51 pessoas na Nova Zelândia. A empresa demorou uma hora para tirar o vídeo do ar.

CEO do Twitter se encontrou com presidente Trump para discutir "saúde do debate público"

CEO do Twitter se encontrou com presidente Trump para discutir “saúde do debate público”
Getty Images

O Facebook usa inteligência artificial — tem uma equipe de mais de 150 especialistas de engenharia para fazer isso — e pessoas contratadas para encontrar e excluir conteúdo violento e desinformação. Mas Schroepfer admitiu que a inteligência artificial não conseguirá, sozinha, resolver os problemas do Facebook.

E, além disso, as empresas ainda não têm clareza sobre o que deve ser de fato excluído. À Vice uma executiva do Twitter disse há poucos dias que a empresa estava conduzindo pesquisas para entender como supremacistas brancos usam a plataforma, com o objetivo de decidir, em parte, se supremacistas brancos devem ser banidos do site ou se devem permanecer na plataforma para que suas visões sejam debatidas por outros. Não excluir esse tipo de conteúdo rende ao Twitter muitas críticas.

A diretora de segurança e políticas do Twitter, Vijaya Gadde, disse que a empresa acredita que “discursos contrários e conversações são uma força para o bem, e podem atuar como base para combater a radicalização, como já se viu acontecer em outras plataformas”. Ela disse que a empresa está trabalhando com acadêmicos para conduzir estudos e confirmar se esse é o caso.

“A melhor abordagem é tirar esses indivíduos da plataforma? Ou tentar interagir com esses indivíduos? De que forma devemos pensar sobre isso?”, disse Gadde.

No mês passado, Gadde e o CEO do Twitter, Jack Dorsey, encontraram-se com o presidente Trump para discutir “a saúde do debate público”.

Soluções

Para Jillian York, diretora de liberdade de expressão da Electronic Frontier Foundation, que defende liberdades civis no mundo digital, as plataformas têm o direito de fazer a curadoria de conteúdo como querem. “O problema é quando as regras não são claras ou são aplicadas de forma inconsistente, e quando usuários não são notificados sobre como ou por que violaram a regra”, diz. Para ela, usuários deveriam ter acesso ao processo, “porque sabemos que as empresas cometem um número significativo de erros ao moderar conteúdo”.

“Está na hora de reconhecermos que nossa fórmula de moderação de conteúdo não está funcionando.”

Ela cita motivos: às vezes o conteúdo é moderado por pessoas, que podem não ser bem-pagas ou bem-treinadas e que podem cometer erros — “e é normal, são seres humanos”. Às vezes usa-se só automação, uma maneira imperfeita de lidar com isso, propensa a erros – particularmente quando o conteúdo é um texto. E às vezes é essas empresas criaram um labirinto de regras e não há possibilidade de que elas sejam colocadas em prática consistentemente.

Qual seria a solução para esse problema, então? Para York, as regras deveriam ser repensadas – pela sociedade como um todo, não só pelas empresas. “O default não deveria ser a remoção, deveria ser a liberdade de expressão.” Em segundo lugar, diz ela, as empresas deveriam ser mais claras e transparentes sobre as regras e consequências, dando aos usuários a possibilidade de entrar com recursos — algo que muitas já fazem — e de fato ouvindo essas pessoas.

Rao, que trabalha com inteligência artificial, cita outras possíveis soluções: educar o usuário é uma delas. “Enquanto o usuário estiver digitando algo que pode ser um discurso violento, ele pode receber um aviso explicando que aquilo não é apropriado, com a esperança de que os usuários modifiquem o conteúdo nesse processo.” Um outro passo seria mandar avisos para usuários que podem ter escrito conteúdo violento, com mensagens tentando impedir comportamento similar. Uma terceira possível solução: a plataforma pode limitar a disseminação do conteúdo, restringindo sua visibilidade na rede.

“É um problema desafiador”, diz Rao. “Todas as pessoas trabalhando com isso sabem que é difícil e complexo. Não é que não estejam tentando. Mas há muita inércia nas grandes empresas. Tenho esperança de que isso mude.”