Facebook instrui moderadores a não apagar certos posts com abuso infantil e violência
Algumas páginas seguem no ar mesmo quando violam repetidamente os termos do Facebook
Algumas páginas seguem no ar mesmo quando violam repetidamente os termos do Facebook
O Facebook tem algumas regras secretas para moderar conteúdo ofensivo, mas que nem sempre são obedecidas à risca. Uma investigação descobriu que a rede social prefere não remover diversos posts promovendo violência, abuso infantil e racismo.
O canal britânico Channel 4 colocou um repórter disfarçado para trabalhar durante sete semanas na CPL Resources. Ela é uma das terceirizadas que moderam conteúdo para o Facebook, e presta serviços para a rede social desde 2010.
Ele descobriu que um vídeo de um menino sendo espancado e pisado continua no Facebook, apenas com o aviso de que é “perturbador”. O conteúdo foi denunciado em 2012 por Nicci Astin, que faz campanha online contra abuso infantil. Na época, a rede social disse que isso não violava seus termos de uso.
O vice-presidente de política global do Facebook, Richard Allen, diz: “isso não deveria estar lá, o material deveria ter sido retirado”. No entanto, o Business Insider ainda conseguiu encontrar uma versão do vídeo na plataforma.
Outro exemplo é um meme racista de uma menina sendo afogada em uma banheira, com a legenda: “quando o primeiro crush da sua filha é um menino preto”.
Os moderadores têm três opções para revisar os posts: ignorar, excluir, ou marcar como perturbador. Nesse caso, eles são instruídos a ignorar, porque “para justificar uma violação real, você tem que passar por muitos obstáculos”.
Dispatches reveals the racist meme that Facebook moderators used as an example of acceptable content to leave on their platform.
Facebook have removed the content since Channel 4’s revelations.
Warning: distressing content. pic.twitter.com/riVka6LcPS— Channel 4 Dispatches (@C4Dispatches) July 17, 2018
Além disso, algumas páginas permanecem no ar mesmo quando violam repetidamente os termos do Facebook. Páginas de grupos de extrema direita, como Britain First e English Defence League, enviaram mais de 5 posts com violações de conteúdo, mas não foram removidas porque tinham muitos seguidores.
Não é surpresa que o Facebook deixe passar conteúdo questionável. Roger McNamee, um de seus primeiros investidores, acredita que isso é proposital.
“É o conteúdo realmente extremo e perigoso que atrai as pessoas mais engajadas na plataforma”, ele diz ao Channel 4. “O Facebook entendeu ser desejável que as pessoas passem mais tempo no site porque seu negócio é baseado em publicidade.”
Além disso, “o Facebook aprendeu que as pessoas nos extremos são realmente valiosas, porque elas podem frequentemente provocar 50 ou 100 outras pessoas”, explica McNamee. E um membro da CPL Resources diz ao repórter disfarçado que, “se você começa a censurar demais, as pessoas perdem o interesse na plataforma”.
Allan, do Facebook, discorda: “conteúdo chocante não nos rende mais dinheiro — isso é apenas um mal-entendido de como o sistema funciona… a vasta maioria dos 2 bilhões de usuários nunca sonharia em compartilhar conteúdo assim, para chocar e ofender pessoas”.
O Facebook diz à BBC que os funcionários da CPL foram “retreinados”, e o mesmo vai acontecer com outros moderadores ao redor do mundo. A empresa repete a promessa de aumentar a equipe de moderação — própria e terceirizada — para 20 mil pessoas até o final do ano. Atualmente, isso está em 15 mil.
Com informações: Mashable.