No domingo de Páscoa, Steve Stephens postou um vídeo no Facebook anunciando a intenção de matar alguém na cidade de Cleveland (EUA). Dois minutos depois, ele postou outro vídeo atirando em Robert Godwin Sr., de 74 anos. Após mais alguns minutos, ele entrou ao vivo confessando o assassinato.

Segundo o Facebook, o vídeo ao vivo da confissão foi rapidamente denunciado por outro usuário; mas a rede social só foi alertada sobre o segundo vídeo (com o tiro) mais de 1h45min após ele ser publicado. Por isso, eles prometem melhorar a forma como seus usuários denunciam vídeos, para que isso possa ser feito “tão facilmente e rapidamente quanto possível”.

O Facebook diz que desativou a conta do suspeito 23 minutos após receber a denúncia do vídeo em que o idoso é baleado. Esta é a linha do tempo:

11h09 PDT (horário do Pacífico) – primeiro vídeo, com a intenção de assassinato, é enviado. Ninguém o denunciou para o Facebook.
11h11 – segundo vídeo, com o tiro, é enviado.
11h22 – suspeito confessa o assassinato enquanto usa o Live; transmissão dura 5 minutos.
11h27 – Live termina, e vídeo é denunciado logo depois.
12h59 – vídeo do tiro é enfim denunciado.
13h22 – conta do suspeito é desativada; todos os vídeos deixam de ser visíveis para o público.

Como nota o TechCrunch, esta linha do tempo demonstra as falhas do sistema de moderação do Facebook. A rede social não busca conteúdos violentos ou inapropriados; ela espera até que alguém os denuncie antes de agir.

No entanto, o processo de denúncia é mais complicado do que deveria. Primeiro, é preciso clicar na setinha do canto inferior direito e depois em Denunciar:

Então, escolher a opção “Acredito que não deveria estar no Facebook”:

Em um novo pop-up, você clica na opção “É ameaçador, violento ou suicida”:

Em mais outro pop-up, é preciso escolher a opção “Violência explícita”:

E, enfim, você clica “Enviar ao Facebook para análise”.

Compare isso ao YouTube, que requer apenas alguns cliques na mesma interface: Mais > Denunciar > Conteúdo violento ou repulsivo > Ataque físico > Enviar. (A descrição é opcional.)

Justin Osofsky, vice-presidente de operações globais do Facebook, reconhece em comunicado que a empresa pode fazer um trabalho melhor na moderação. Ele diz que a inteligência artificial pode ser útil, “ajudando-nos a impedir que os vídeos sejam compartilhados novamente em sua totalidade”. No entanto, cópias do vídeo de Stephens estavam sendo compartilhadas no Facebook, e uma delas acumulou mais de 1,6 milhão de visualizações.

Segundo o Mashable, o Facebook tem uma equipe de moderadores humanos que monitoram ativamente vídeos ao vivo se eles atingirem certo limite; talvez eles devessem fazer o mesmo também para vídeos fora do Live.

Por enquanto, o Facebook só analisa os itens que são denunciados pelos usuários; a empresa tem uma equipe com milhares de pessoas em todo o mundo.

Receba mais notícias do Tecnoblog na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Felipe Ventura

Felipe Ventura

Ex-editor

Felipe Ventura fez graduação em Economia pela FEA-USP, e trabalha com jornalismo desde 2009. No Tecnoblog, atuou entre 2017 e 2023 como editor de notícias, ajudando a cobrir os principais fatos de tecnologia. Sua paixão pela comunicação começou em um estágio na editora Axel Springer na Alemanha. Foi repórter e editor-assistente no Gizmodo Brasil.

Canal Exclusivo

Relacionados