Facebook vai avisar usuários quando posts forem removidos por robôs

Após recomendação do Comitê de Supervisão, Facebook experimenta informar se publicações foram removidas por automação

Bruno Gall De Blasi
Por
• Atualizado há 2 anos e 4 meses
App do Facebook (Imagem: Thomas Sokolowski/Unsplash)
App do Facebook (Imagem: Thomas Sokolowski/Unsplash)

O Facebook está preparando um novo alerta para caso uma publicação seja removida por robôs. Nesta quinta-feira (15), a companhia anunciou que vai começar a testar uma notificação que será encaminhada aos usuários para avisar se a decisão foi tomada sem a participação de um revisor humano. A medida, que tende a trazer mais transparência ao processo, parte de uma recomendação feita pelo Comitê de Supervisão.

A novidade é uma repercussão de quando o Instagram removeu um post com base em suas regras sobre nudez, que visava aumentar a conscientização sobre o câncer de mama. Na ocasião, o conselho recomendou que a empresa alertasse caso alguma publicação fosse retirada via automação. Agora, os testes do aviso serão iniciados.

“As pessoas no teste agora veem se a tecnologia ou um revisor de conteúdo do Facebook tomou a decisão de fiscalização sobre seu conteúdo”, anunciaram. “Analisaremos os resultados para ver se as pessoas tiveram uma compreensão mais clara de quem removeu seu conteúdo, ao mesmo tempo em que observamos um possível aumento nas taxas de reincidência e apelação”.

Facebook abre exceção para sátiras e humor

Esta é mais uma recomendação do Comitê de Supervisão adotada pelo Facebook recentemente. Em junho, a rede social abriu uma exceção a sátiras e humor em suas regras. A alteração veio de uma sugestão feita à companhia depois que um comentário relacionado ao povo armênio e ao genocídio armênio foi levado ao conselho.

A medida parte da segunda orientação dada sobre o caso (ao todo, foram feitas cinco observações). O comitê sugeriu a incluir a “exceção de sátira, que não está disponível atualmente para os usuários em linguagem acessível, nos Padrões da Comunidade sobre discurso de ódio”. Depois, o Facebook disse que iria implementá-la neste ano.

Segundo a rede social, de novembro de 2020 até 31 de março de 2021, 26 decisões de conteúdo foram enviadas ao Comitê de Supervisão. Dessas, três foram selecionadas. “Encaminhamos as decisões de conteúdo mais significativas e difíceis para o conselho, e o conselho tem o exclusivo critério para aceitar ou rejeitar esses casos”, explicaram.

Com informações: Engadget e Facebook (Newsroom)

Receba mais sobre Facebook na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Bruno Gall De Blasi

Bruno Gall De Blasi

Ex-autor

Bruno Gall De Blasi é jornalista e cobre tecnologia desde 2016. Sua paixão pelo assunto começou ainda na infância, quando descobriu "acidentalmente" que "FORMAT C:" apagava tudo. Antes de seguir carreira em comunicação, fez Ensino Médio Técnico em Mecatrônica com o sonho de virar engenheiro. Escreveu para o TechTudo e iHelpBR. No Tecnoblog, atuou como autor entre 2020 e 2023.

Relacionados