A luta do Facebook contra notícias falsas continua. A medida que a companhia está implementando agora fará links com argumentações diferentes aparecerem logo abaixo de conteúdo suspeito, em uma parte chamada “artigos relacionados” (tradução livre). É quase como se o serviço optasse for ficar em cima do muro, mas oferecesse opções para o usuário decidir no que acreditar.

Embora o recurso seja simples e, aparentemente, de baixo impacto, ele ilustra a complexidade do assunto. O Facebook tem pelo menos 4,5 mil funcionários dedicados à revisão do conteúdo publicado na rede social. Esse número deve chegar a 7,5 mil até o final do ano. O problema é que esse time pode falhar: em vez de conteúdo falso ou nocivo, publicações legítimas podem ser removidas e caracterizar censura. Relatos de situações como essa não faltam.

Documentos internos obtidos pelo The Guardian em maio mostram que o Facebook tem um conjunto bastante amplo de diretrizes para determinar o que deve ou não ser eliminado nas tarefas de moderação. Mesmo seguindo todo o protocolo, alguém pode acabar eliminando um link injustamente por acreditar que o material é prejudicial quando, na verdade, o seu julgamento foi influenciado pela não concordância com o assunto abordado.

Além de falhas de julgamento na moderação, análises dos documentos internos do Facebook indicam que há inconsistências nos parâmetros. Inconsistências sérias: de acordo com um estudo da ProPublica, há combinações de parâmetros ali que podem, por exemplo, fazer uma publicação que ataca crianças negras ser considerada legítima porque esse grupo não é enquadrado em categorias protegidas.

Os artigos relacionados pouco ou nada podem fazer para combater explicitamente conteúdo nocivo, como publicações que mostram fotos de violência extrema. Mas podem ajudar o Facebook a evitar que uma notícia falsa se propague rapidamente na rede social pelo tom alarmista ou pelo senso de indignação que aquele conteúdo causa.

O time de moderação continuará trabalhando, é claro. Mas, como a quantidade de publicações compartilhadas no Facebook é imensa, os artigos relacionados devem evitar que notícias falsas se alastrem rapidamente antes que uma verificação rigorosa seja feita.

Facebook - artigos relacionados

Bom, pelo menos é o que o Facebook espera. De acordo com Tessa Lyons, gerente de integridade de produto do Facebook, o feedback obtido durante os testes dos artigos relacionados mostrou que a nova abordagem deu clareza a muitas pessoas sobre os assuntos tratados e, assim, elas passaram a tomar mais cuidado sobre o que compartilhar.

As sugestões de artigos não são novidades no Facebook. Esse recurso existe pelo menos desde 2013. A diferença é que, agora, o conteúdo indicado será selecionado com base em critérios mais sofisticados e em notícias checadas (uma que desminta a original com argumentos consistentes, por exemplo) para que haja, de fato, contexto.

E se outra notícia falsa acabar aparecendo nas sugestões? O risco existe, mas o Facebook pretende combatê-lo usando inteligência artificial e desqualificando publicações que estão recebendo muitos comentários controversos ou sendo denunciadas como falsas.

Inicialmente, o recurso funcionará na Alemanha, Estados Unidos, França e Países Baixos.

Com informações: TechCrunch

Receba mais sobre Facebook na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Emerson Alecrim

Emerson Alecrim

Repórter

Emerson Alecrim cobre tecnologia desde 2001 e entrou para o Tecnoblog em 2013, se especializando na cobertura de temas como hardware, sistemas operacionais e negócios. Formado em ciência da computação, seguiu carreira em comunicação, sempre mantendo a tecnologia como base. Em 2022, foi reconhecido no Prêmio ESET de Segurança em Informação. Em 2023, foi reconhecido no Prêmio Especialistas, em eletroeletrônicos. Participa do Tecnocast, já passou pelo TechTudo e mantém o site Infowester.

Relacionados