A luta do Facebook contra notícias falsas continua. A medida que a companhia está implementando agora fará links com argumentações diferentes aparecerem logo abaixo de conteúdo suspeito, em uma parte chamada “artigos relacionados” (tradução livre). É quase como se o serviço optasse for ficar em cima do muro, mas oferecesse opções para o usuário decidir no que acreditar.

Embora o recurso seja simples e, aparentemente, de baixo impacto, ele ilustra a complexidade do assunto. O Facebook tem pelo menos 4,5 mil funcionários dedicados à revisão do conteúdo publicado na rede social. Esse número deve chegar a 7,5 mil até o final do ano. O problema é que esse time pode falhar: em vez de conteúdo falso ou nocivo, publicações legítimas podem ser removidas e caracterizar censura. Relatos de situações como essa não faltam.

Facebook

Documentos internos obtidos pelo The Guardian em maio mostram que o Facebook tem um conjunto bastante amplo de diretrizes para determinar o que deve ou não ser eliminado nas tarefas de moderação. Mesmo seguindo todo o protocolo, alguém pode acabar eliminando um link injustamente por acreditar que o material é prejudicial quando, na verdade, o seu julgamento foi influenciado pela não concordância com o assunto abordado.

Além de falhas de julgamento na moderação, análises dos documentos internos do Facebook indicam que há inconsistências nos parâmetros. Inconsistências sérias: de acordo com um estudo da ProPublica, há combinações de parâmetros ali que podem, por exemplo, fazer uma publicação que ataca crianças negras ser considerada legítima porque esse grupo não é enquadrado em categorias protegidas.

Os artigos relacionados pouco ou nada podem fazer para combater explicitamente conteúdo nocivo, como publicações que mostram fotos de violência extrema. Mas podem ajudar o Facebook a evitar que uma notícia falsa se propague rapidamente na rede social pelo tom alarmista ou pelo senso de indignação que aquele conteúdo causa.

O time de moderação continuará trabalhando, é claro. Mas, como a quantidade de publicações compartilhadas no Facebook é imensa, os artigos relacionados devem evitar que notícias falsas se alastrem rapidamente antes que uma verificação rigorosa seja feita.

Facebook - artigos relacionados

Bom, pelo menos é o que o Facebook espera. De acordo com Tessa Lyons, gerente de integridade de produto do Facebook, o feedback obtido durante os testes dos artigos relacionados mostrou que a nova abordagem deu clareza a muitas pessoas sobre os assuntos tratados e, assim, elas passaram a tomar mais cuidado sobre o que compartilhar.

As sugestões de artigos não são novidades no Facebook. Esse recurso existe pelo menos desde 2013. A diferença é que, agora, o conteúdo indicado será selecionado com base em critérios mais sofisticados e em notícias checadas (uma que desminta a original com argumentos consistentes, por exemplo) para que haja, de fato, contexto.

E se outra notícia falsa acabar aparecendo nas sugestões? O risco existe, mas o Facebook pretende combatê-lo usando inteligência artificial e desqualificando publicações que estão recebendo muitos comentários controversos ou sendo denunciadas como falsas.

Inicialmente, o recurso funcionará na Alemanha, Estados Unidos, França e Países Baixos.

Com informações: TechCrunch

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Eduardo Alvim
Notícias são fatos.
AlxR

Quem vai votar nisso são os mesmos que ficam espalhando mensagem de lanche grátis do Mcdonalds no WhatsApp.

Meganegão
Quem vai votar nisso são os mesmos que ficam espalhando mensagem de lanche grátis do Mcdonalds no WhatsApp.
johndoe1981

Quem tem que fazer a triagem das notícias publicadas no Rostolivro é o próprio usuário.

Cássio Amaral
Quem tem que fazer a triagem das notícias publicadas no Rostolivro é o próprio usuário.
Renan
"70% dos usuários acreditam que esta notícia é falsa. Ver detalhes." Um aviso do tipo seria suficiente pra mim. Nos detalhes ficariam indicadas as provas de que a notícia divulga informações falsas. É estranho que o Facebook que vive de conteúdo de terceiros ainda não tenha viabilizado a moderação coletiva.
Ligeiro
Me chame de chato, mas sugiro reler o texto. Essa ideia de sugerir matéria é aliada a um esquema de moderação, feita por humanos e não maquinas. Então isso serve como blindagem as trollagens.
Marcus Araújo
Um novo dia, uma nova proposta do Facebook contra as notícias falsas e o clickbait... Pelo que vejo em minha TL, ainda não surtiu efeito algum.
Kirby Absolutely Putaço
E se o Facebook considerar que uma noticia falsa é verdadeira? E uma noticia verdadeira é falsa? Caso isso seja decidido pelos usuários, como impedir que grupinhos de imbecis comecem a se organizar pra derrubar links? Facebook não deveria se meter nisso, cada usuário é responsável por aquilo que posta, pra nos controlar já basta o governo e seus impostos.
Fábio Peres
Bom, e se eu não concordar com a notícia verdadeira? O Facebook vai querer me lobotomizar?