Facebook explica como os revisores de conteúdo trabalham

Quem são, onde vivem e como se reproduzem os funcionários que moderam posts no Facebook

Paulo Higa
Por
• Atualizado há 2 anos e 4 meses
Revisores de conteúdo no Facebook

O Facebook vem investindo para combater posts que violam as políticas da rede social, como conteúdos que promovem discurso de ódio, pornografia, spam e notícias falsas. Para isso, a empresa quase dobrou sua equipe de moderadores humanos neste ano, formando um grupo de 7.500 pessoas, entre funcionários próprios e terceirizados. Mas quem são esses seres, onde vivem e como se reproduzem?

A empresa explicou (quase) tudo isso nesta quinta-feira (26). Nenhum detalhe muito específico foi revelado por questões de segurança, de acordo com o Facebook, mostrando como exemplo o caso da atiradora que invadiu o prédio do YouTube, na Califórnia, em abril. Mas sabemos de algumas informações: a equipe cobre todos os fusos horários, entende mais de 50 idiomas e passa por uma auditoria semanal.

Para avaliar as publicações, é preciso ter falantes de um idioma em todos os horários possíveis. O Facebook diz que “se alguém reportar um post em idioma tagalog no meio da noite nas Filipinas, por exemplo, sempre haverá um revisor falante de tagalog, localmente ou baseado em outro fuso horário, para o qual a denúncia pode ser encaminhada para uma análise rápida”. A exceção fica para casos como nudez, em que a denúncia pode ser encaminhada para qualquer revisor.

Segundo o Facebook, “esse trabalho não é para todos, então procuramos candidatos que acreditamos que possam lidar com imagens violentas ou perturbadoras”. A seleção envolve descobrir se um trauma do passado pode ser desencadeado pelo trabalho (o que me lembra de uma entrevista de um revisor de conteúdo do Google, que via até 15 mil imagens “sensíveis” por dia). Por isso, esses funcionários também têm acesso a uma equipe de psicólogos que podem auxiliá-los.

Mas como garantir que a avaliação seja justa? O Facebook diz que tenta “manter visões pessoais e preconceitos fora da equação”. Como isso nem sempre é possível, a solução é manter as políticas claras e atualizadas, e auditar parte das decisões de cada revisor para descobrir onde houve erros. Os auditores “também são auditados regularmente”, segundo a empresa.

Críticas à moderação devem continuar existindo (você também já reportou um conteúdo que viola as regras do Facebook e não foi tirado do ar?), mas a empresa diz que “nunca houve uma plataforma em que tantas pessoas se comunicam em tantos idiomas diferentes em tantos países e culturas diferentes”, declarando que “reconhece a enormidade desse desafio e a responsabilidade em fazer as coisas certas”.

Receba mais sobre Facebook na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Paulo Higa

Paulo Higa

Ex-editor executivo

Paulo Higa é jornalista com MBA em Gestão pela FGV e uma década de experiência na cobertura de tecnologia. No Tecnoblog, atuou como editor-executivo e head de operações entre 2012 e 2023. Viajou para mais de 10 países para acompanhar eventos da indústria e já publicou 400 reviews de celulares, TVs e computadores. Foi coapresentador do Tecnocast e usa a desculpa de ser maratonista para testar wearables que ainda nem chegaram ao Brasil.

Relacionados