Facebook não conseguiu impedir upload de 300 mil vídeos do ataque na Nova Zelândia
1,5 milhão de vídeos do atentado foi bloqueado pelo Facebook, mas 300 mil chegaram a ser publicados
1,5 milhão de vídeos do atentado foi bloqueado pelo Facebook, mas 300 mil chegaram a ser publicados
Como que para mostrar que agiu rapidamente, o Facebook revelou no domingo (17) que barrou 1,5 milhão de vídeos com imagens do atentado em Christchurch, na Nova Zelândia, que resultou na morte de 50 pessoas e deixou outras 50 feridas. É um número expressivo de bloqueios, mas que também revela um ponto fraco: 300 mil desses vídeos — ou seja, 20% deles — só foram removidos da rede social depois de publicados e, provavelmente, visualizados.
O autor do atentado usou o Facebook para transmitir, em tempo real, parte dos ataques às mesquitas na Nova Zelândia. Isso fez a rede social ser duramente criticada. Em resposta, o Facebook disse ter sido alertado pela polícia e que, por conta disso, excluiu o vídeo minutos depois do início da transmissão.
As contas do atirador no Facebook e Instagram também foram excluídas. Mas esse foi só o início dos esforços. Nas horas seguintes, milhares de vídeos contendo imagens do ataque ou manifestando apoio ao atentado foram enviados à rede social.
De acordo com o Facebook, 1,2 milhão de vídeos que correspondem a esses critérios foram barrados enquanto ainda estavam sendo enviados à rede social. Isso só nas primeiras 24 horas após o ataque.
In the first 24 hours we removed 1.5 million videos of the attack globally, of which over 1.2 million were blocked at upload…
— Facebook Newsroom (@fbnewsroom) March 17, 2019
O conteúdo removido no início serviu de base para que os algoritmos do Facebook pudessem identificar automaticamente as tentativas de publicação posterior de vídeos ou imagens com cenas do ataque. Até publicações com cortes ou ocultação de cenas fortes foram barradas. O problema é que esse sistema não é perfeito: o TechCrunch relata que, 12 horas após o atentado, ainda era possível encontrar na rede social diversos vídeos com imagens do massacre.
Foi por isso que o Facebook não tardou em explicar que, ainda nas primeiras 24 horas após o atentado, 300 mil vídeos que não foram barrados na fase de upload tiveram sua remoção efetuada posteriormente.
A questão é: quantas pessoas tiveram acesso a esses vídeos antes da sua remoção? Por não ter dado detalhes, o Facebook continua sofrendo pressão. Há gente pedindo que a companhia divulgue os números de engajamento (curtidas, compartilhamentos e comentários) das publicações excluídas ou que denuncie os perfis que postaram os vídeos.
Esse é um problema delicado para o Facebook. Se de um lado a companhia oferece ferramentas que permitem a pessoas de qualquer lugar do mundo fazerem transmissões ao vivo, por outro, os mecanismos que bloqueiam abusos nesses serviços são visivelmente limitados.
Isso se deve, em parte, à necessidade de verificação humana do conteúdo denunciado. Como as equipes de moderação lidam com um volume muito grande de denúncias, elas podem levar preciosos minutos para remover o material nocivo. Nesse meio tempo, o vídeo já pode ter sido copiado ou compartilhado em larga escala.
Mas, para autoridades, ONGs e analistas isso não é desculpa. É cada vez maior a pressão para que as redes sociais sejam mais proativas no combate a conteúdos de ódio ou violência. A própria primeira-ministra da Nova Zelândia, Jacinda Ardern, declarou ter pedido explicações ao Facebook e a outros serviços sobre como imagens dos ataques foram parar rapidamente em suas plataformas.
Com informações: Mashable.