Facebook instrui moderadores a não apagar certos posts com abuso infantil e violência

Algumas páginas seguem no ar mesmo quando violam repetidamente os termos do Facebook

Felipe Ventura
Por
• Atualizado há 2 anos e 4 meses

O Facebook tem algumas regras secretas para moderar conteúdo ofensivo, mas que nem sempre são obedecidas à risca. Uma investigação descobriu que a rede social prefere não remover diversos posts promovendo violência, abuso infantil e racismo.

O canal britânico Channel 4 colocou um repórter disfarçado para trabalhar durante sete semanas na CPL Resources. Ela é uma das terceirizadas que moderam conteúdo para o Facebook, e presta serviços para a rede social desde 2010.

Vídeo de abuso infantil é denunciado, mas não removido

Ele descobriu que um vídeo de um menino sendo espancado e pisado continua no Facebook, apenas com o aviso de que é “perturbador”. O conteúdo foi denunciado em 2012 por Nicci Astin, que faz campanha online contra abuso infantil. Na época, a rede social disse que isso não violava seus termos de uso.

O vice-presidente de política global do Facebook, Richard Allen, diz: “isso não deveria estar lá, o material deveria ter sido retirado”. No entanto, o Business Insider ainda conseguiu encontrar uma versão do vídeo na plataforma.

Outro exemplo é um meme racista de uma menina sendo afogada em uma banheira, com a legenda: “quando o primeiro crush da sua filha é um menino preto”.

Os moderadores têm três opções para revisar os posts: ignorar, excluir, ou marcar como perturbador. Nesse caso, eles são instruídos a ignorar, porque “para justificar uma violação real, você tem que passar por muitos obstáculos”.

Além disso, algumas páginas permanecem no ar mesmo quando violam repetidamente os termos do Facebook. Páginas de grupos de extrema direita, como Britain First e English Defence League, enviaram mais de 5 posts com violações de conteúdo, mas não foram removidas porque tinham muitos seguidores.

Conteúdo extremo para atrair usuários

Não é surpresa que o Facebook deixe passar conteúdo questionável. Roger McNamee, um de seus primeiros investidores, acredita que isso é proposital.

“É o conteúdo realmente extremo e perigoso que atrai as pessoas mais engajadas na plataforma”, ele diz ao Channel 4. “O Facebook entendeu ser desejável que as pessoas passem mais tempo no site porque seu negócio é baseado em publicidade.”

Além disso, “o Facebook aprendeu que as pessoas nos extremos são realmente valiosas, porque elas podem frequentemente provocar 50 ou 100 outras pessoas”, explica McNamee. E um membro da CPL Resources diz ao repórter disfarçado que, “se você começa a censurar demais, as pessoas perdem o interesse na plataforma”.

Allan, do Facebook, discorda: “conteúdo chocante não nos rende mais dinheiro — isso é apenas um mal-entendido de como o sistema funciona… a vasta maioria dos 2 bilhões de usuários nunca sonharia em compartilhar conteúdo assim, para chocar e ofender pessoas”.

O Facebook diz à BBC que os funcionários da CPL foram “retreinados”, e o mesmo vai acontecer com outros moderadores ao redor do mundo. A empresa repete a promessa de aumentar a equipe de moderação — própria e terceirizada — para 20 mil pessoas até o final do ano. Atualmente, isso está em 15 mil.

Com informações: Mashable.

Receba mais sobre Facebook na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Felipe Ventura

Felipe Ventura

Ex-editor

Felipe Ventura fez graduação em Economia pela FEA-USP, e trabalha com jornalismo desde 2009. No Tecnoblog, atuou entre 2017 e 2023 como editor de notícias, ajudando a cobrir os principais fatos de tecnologia. Sua paixão pela comunicação começou em um estágio na editora Axel Springer na Alemanha. Foi repórter e editor-assistente no Gizmodo Brasil.

Relacionados