Início » Antivírus e Segurança » Como o Facebook decide qual conteúdo remover ou não

Como o Facebook decide qual conteúdo remover ou não

Documentos vazados evidenciam quão difícil é o trabalho dos moderadores

Emerson Alecrim Por
2 anos e meio atrás

O Facebook tem 4,5 mil funcionários que se dedicam exclusivamente à revisão do conteúdo publicado na rede social. Esse número deve aumentar para 7,5 mil até o final do ano. Tirando essa informação, a companhia nunca revelou muitos detalhes sobre o assunto. Porém, documentos sigilosos obtidos pelo The Guardian mostram como esse trabalho é feito e dão ideia do quão desafiador é para o Facebook evitar que conteúdo nocivo se prolifere.

Desafiador porque, para começar, a rede social tem cerca de 2 bilhões de contas — é muita gente postando e compartilhando conteúdo a cada segundo. Além disso, a empresa tem que lidar constantemente com o fato de que, com frequência, é difícil separar a correta moderação de um ato equivocado de censura.

Facebook

Bloquear ou não bloquear?

É por isso que há tantas diretrizes. Elas ajudam os moderadores a tomar decisões sobre conteúdos que promovem violência, pornografia, racismo, discursos de ódio, terrorismo e assim por diante — há até orientações específicas sobre canibalismo.

As diretrizes ajudam, mas às vezes também atrapalham. Não é raro um moderador reclamar de inconsistências ou apresentar interpretações divergentes para determinadas situações.

Um exemplo de possível confusão são as orientações relacionadas a mensagens que expressam violência. As diretrizes explicam que muitos usuários podem usam palavras que motivam agressões como forma de extravasar sentimentos perturbadores, não sendo, portanto, um tipo de conteúdo que deve ser tratado como uma ameaça em potencial.

Mas há exceções. É possível comentar algo como "espero que eles morram" ou "para quebrar o pescoço (...), aperte com toda força (...)" se pessoas ou grupos não forem claramente identificados como alvo. Mas escrever "que alguém atire no Trump", por exemplo, pode trazer problemas — como autoridade máxima de uma nação, toda e qualquer ameaça a Donald Trump deve ser tratada com absoluto rigor, por menor que seja.

O presidente não pode ser ameaçado, nem de brincadeira

O presidente não pode ser ameaçado, nem de brincadeira

Casos como esse até que são fáceis de diferenciar. Outros, porém, são muito delicados. O Facebook afirma que certos vídeos de morte violenta podem ser mantidos na rede social porque ajudam na conscientização de problemas mentais, por exemplo. Mas como diferenciar corretamente uma cena que expressa ódio de uma que tem um problema de ordem pessoal como pano de fundo?

Outro exemplo de orientação que dá margem para questionamentos: de acordo com os documentos, imagens de crianças sofrendo abuso físico são permitidas, exceto quando celebradas ou acompanhas de algum elemento sádico; cenas de animais sofrendo abuso também podem ser publicadas, desde que as imagens não sejam "extremamente perturbadoras" ou não incentivem essa prática.

Há um número substancial de transmissões ao vivo em que o usuário — na maioria das vezes, um adolescente ou um adulto jovem — pratica violência nele mesmo, especialmente automutilação. O Facebook orienta os moderadores a não bloquearem esse tipo de conteúdo para não deixar a pessoa, que já está sob forte estresse, ainda mais transtornada.

Um dos slides que tratam de violência a animais

Um dos slides que tratam de violência a animais

Conteúdo de teor sexual é uma categoria especialmente complicada. Imagens de sexo explícito são barradas, obviamente. No entanto, exibições moderadas de sexualidade, vestes provocativas e até atividade sexual entre adultos com detalhes "pixelados" são permitidos. Arte "feita à mão" (como pinturas e esculturas) ressaltando nudez também é liberada; mas se a arte for feita digitalmente, não.

Linguagem sexualizada também é permitida, mas a mensagem deve ser barrada se expressar detalhes. Por exemplo, você pode dizer a alguém que quer “fazer aquilo”, mas não pode expressar onde ou como. Confuso, não? É por isso que orientação padrão é deletar se o conteúdo for denunciado, mesmo que a mensagem não seja detalhada.

Outro ponto confuso: imagens de aborto são permitidas, exceto se mostrarem nudez.

Moderar é preciso, mas é complicado

Embora o Facebook não tenha confirmado ou negado a legitimidade dos documentos vazados, Monika Bickert, gestora de políticas globais da empresa, ressaltou ao The Guardian que é difícil para o serviço chegar a um consenso sobre o que deve ser bloqueado ou não.

É um desafio dos grandes, de fato, pois muitos casos envolvem aspectos culturais e sociais que variam de país para país. Por exemplo, fotos que mostram pessoas se beijando são bem toleradas em muitos lugares, mas em outros são tão libidinosas quanto atos sexuais propriamente ditos.

Facebook - Like

O Facebook ainda tem que lidar com outro problema corriqueiro: além da dificuldade que os moderadores têm de decidir se determinada publicação deve ou não ser retirada da rede social, não são raros os casos de problemas emocionais nas equipes, seja pelo estresse das decisões, seja pelo choque causado por certos conteúdos.

Apesar das dificuldades, Bickert assegura que o Facebook continua empenhado em manter a segurança da rede social. Além de aumentar o time de moderação, a empresa está desenvolvendo ferramentas que prometem ser mais eficazes na filtragem de conteúdo, assim como está criando meios que permitirão ao usuário denunciar publicações perigosas mais facilmente.

Não é como se o Facebook tivesse escolha. A própria companhia reconhece que não é capaz de controlar tudo o que aparece no serviço. A saída, portanto, é buscar formas de amenizar o problema. Mas como respostas paliativas não são soluções, é certo que o assunto ainda vai gerar muita polêmica.

Mais sobre: