Facebook explica como os revisores de conteúdo trabalham
Quem são, onde vivem e como se reproduzem os funcionários que moderam posts no Facebook
Quem são, onde vivem e como se reproduzem os funcionários que moderam posts no Facebook
O Facebook vem investindo para combater posts que violam as políticas da rede social, como conteúdos que promovem discurso de ódio, pornografia, spam e notícias falsas. Para isso, a empresa quase dobrou sua equipe de moderadores humanos neste ano, formando um grupo de 7.500 pessoas, entre funcionários próprios e terceirizados. Mas quem são esses seres, onde vivem e como se reproduzem?
A empresa explicou (quase) tudo isso nesta quinta-feira (26). Nenhum detalhe muito específico foi revelado por questões de segurança, de acordo com o Facebook, mostrando como exemplo o caso da atiradora que invadiu o prédio do YouTube, na Califórnia, em abril. Mas sabemos de algumas informações: a equipe cobre todos os fusos horários, entende mais de 50 idiomas e passa por uma auditoria semanal.
Para avaliar as publicações, é preciso ter falantes de um idioma em todos os horários possíveis. O Facebook diz que “se alguém reportar um post em idioma tagalog no meio da noite nas Filipinas, por exemplo, sempre haverá um revisor falante de tagalog, localmente ou baseado em outro fuso horário, para o qual a denúncia pode ser encaminhada para uma análise rápida”. A exceção fica para casos como nudez, em que a denúncia pode ser encaminhada para qualquer revisor.
Segundo o Facebook, “esse trabalho não é para todos, então procuramos candidatos que acreditamos que possam lidar com imagens violentas ou perturbadoras”. A seleção envolve descobrir se um trauma do passado pode ser desencadeado pelo trabalho (o que me lembra de uma entrevista de um revisor de conteúdo do Google, que via até 15 mil imagens “sensíveis” por dia). Por isso, esses funcionários também têm acesso a uma equipe de psicólogos que podem auxiliá-los.
Mas como garantir que a avaliação seja justa? O Facebook diz que tenta “manter visões pessoais e preconceitos fora da equação”. Como isso nem sempre é possível, a solução é manter as políticas claras e atualizadas, e auditar parte das decisões de cada revisor para descobrir onde houve erros. Os auditores “também são auditados regularmente”, segundo a empresa.
Críticas à moderação devem continuar existindo (você também já reportou um conteúdo que viola as regras do Facebook e não foi tirado do ar?), mas a empresa diz que “nunca houve uma plataforma em que tantas pessoas se comunicam em tantos idiomas diferentes em tantos países e culturas diferentes”, declarando que “reconhece a enormidade desse desafio e a responsabilidade em fazer as coisas certas”.