Início » Aplicativos e Software » Como e qual tipo de conteúdo nocivo é removido do YouTube?

Como e qual tipo de conteúdo nocivo é removido do YouTube?

Entenda que tipo de conteúdo o YouTube considera nocivo e quais mecanismos a plataforma utiliza para remover tais vídeos

Ronaldo Gogoni Por
06/11/2019 às 13h48

O YouTube possui mecanismos para identificar e remover conteúdo nocivo da plataforma, algo que é feito desde o início mas nos últimos anos foi aprimorado sensivelmente. Inteligência artificial, moderadores humanos e colaboração com outras empresas são algumas das medidas tomadas para menter um ambiente saudável.

Mohamed Hassam / YouTube / Pixabay / conteúdo nocivo Youtube

O que o YouTube considera conteúdo nocivo?

Em setembro de 2019, o YouTube estabeleceu novas medidas para o aprimoramento da plataforma, que ela chamou de "Os 4 Rs (erres) da Responsabilidade". Cada "erre" é um princípio básico para manter um serviço sadio, livre de conteúdo nocivo e usuários tóxicos, ao mesmo tempo que favorece e incentiva os criadores que agregam ao ecossistema.

A metodologia dos "erres" foi inspirada no Método 5S da Qualidade e, até o momento apenas o primeiro, o "Removemos", foi detalhado. É ele que rege todas as diretrizes sobre análise de conteúdo, identificação de vídeos impróprios e consequente remoção.

YouTube / 4 Rs da Responsabilidade / youtube conteúdo nocivo

O YouTube não tolera vídeos que violem seus Termos de Serviço, que são os seguintes:

  1. Desafios perigosos: como o Desafio do Sabão e similares, que representam risco de lesões;
  2. Pegadinhas perigosas ou ameaçadoras: pegadinhas em que as vítimas acreditam estar sujeitas a danos ou que gerem estresse emocional;
  3. Instruções para matar ou ferir: como tutoriais de bombas ou instruções de como cometer atentados contra a vida de outras pessoas;
  4. Apologia a drogas: com consumo ou incentivo ao consumo de drogas ilícitas. Drogas lícitas, como álcool ou cigarro, são tolerados dependendo do contexto;
  5. Transtornos alimentares: de pessoas de sofrem de transtornos como anorexia ou bulimia, entre outros, em que o criador incentiva a perda de peso de forma não saudável. Vídeos de transtornos do ponto de vista médico (como incentivo a buscar tratamento) são permitidos;

StockSnap / celular com logo do Youtube na tela / Pixabay / conteúdo nocivo youtube

  1. Promoção a eventos violentos: que promovem ou elogiam eventos violentos, como tiroteios em escolas;
  2. Instruções voltadas a práticas criminosas: que ensinam como roubar dinheiro/itens ou a burlar sistemas de segurança (hacking) e enviar malware a usuários (phishing);
  3. Promoções de curas milagrosas: que promovem substâncias, tratamentos ou sessões que prometem curas não comprovadas pela medicina.

O YouTube também combate ferozmente vídeos de teorias da conspiração, o que já fez canais grandes, como o Info Wars do nefasto Alex Jones, serem limados da plataforma.

Como vídeos inadequados são removidos do YouTube?

Segundo o YouTube, o procedimento de identificar e remover conteúdo nocivo é feito desde que a plataforma foi fundada em 2005, mas ele foi intensificado a partir de 2016.

A plataforma implementou soluções como aprendizado de máquina, sinalizadores fornecidos a ONGs, times de revisores que monitoram as publicações, medidas que impedem menores de idade fazerem streaming sem adultos presentes (de forma a inibir espectadores tóxicos), barrar a sugestão de temas adultos a contas familiares e etc.

O YouTube trabalha de perto com criadores e revisores, para identificar corretamente um vídeo como impróprio e sinaliza-lo para remoção, de forma a reduzir falsos positivos e acabar apagando publicações legítimas, enquanto pune usuários indevidamente, enquanto os conteúdos tóxicos passam pela peneira.

Geralt / YouTube / Pixabay / como ganhar dinheiro no Youtube

É aqui que entra uma das partes mais difíceis, que é identificar discursos de ódio. O grande problema para algoritmos é saber distinguir o uso de uma palavra de acordo com o contexto, de forma que um vídeo legítimo, que use uma determinada expressão possa permanecer no serviço. Enquanto outro, que fez uso da mesma expressão mas com uma conotação de ódio, seja removido assim que identificado.

Segundo o YouTube, o serviço colabora desde 2017 com diversos usuários e empresas de tecnologia para a identificação correta de conteúdo nocivo via algoritmos. A empresa contribui com bancos de dados para aumentar as identificações positivas, enquanto reduz os erros. De acordo com dados oficiais, 87% dos 9 milhões de vídeos removidos no segundo trimestre de 2019 foram sinalizados inicialmente via algoritmos.

Mais sobre: