Como e qual tipo de conteúdo nocivo é removido do YouTube?
Entenda que tipo de conteúdo o YouTube considera nocivo e quais mecanismos a plataforma utiliza para remover tais vídeos
TB Responde
O YouTube possui mecanismos para identificar e remover conteúdo nocivo da plataforma, algo que é feito desde o início mas nos últimos anos foi aprimorado sensivelmente. Inteligência artificial, moderadores humanos e colaboração com outras empresas são algumas das medidas tomadas para menter um ambiente saudável.
Em setembro de 2019, o YouTube estabeleceu novas medidas para o aprimoramento da plataforma, que ela chamou de “Os 4 Rs (erres) da Responsabilidade“. Cada “erre” é um princípio básico para manter um serviço sadio, livre de conteúdo nocivo e usuários tóxicos, ao mesmo tempo que favorece e incentiva os criadores que agregam ao ecossistema.
A metodologia dos “erres” foi inspirada no Método 5S da Qualidade e, até o momento apenas o primeiro, o “Removemos”, foi detalhado. É ele que rege todas as diretrizes sobre análise de conteúdo, identificação de vídeos impróprios e consequente remoção.
O YouTube não tolera vídeos que violem seus Termos de Serviço, que são os seguintes:
O YouTube também combate ferozmente vídeos de teorias da conspiração, o que já fez canais grandes, como o Info Wars do nefasto Alex Jones, serem limados da plataforma.
Segundo o YouTube, o procedimento de identificar e remover conteúdo nocivo é feito desde que a plataforma foi fundada em 2005, mas ele foi intensificado a partir de 2016.
A plataforma implementou soluções como aprendizado de máquina, sinalizadores fornecidos a ONGs, times de revisores que monitoram as publicações, medidas que impedem menores de idade fazerem streaming sem adultos presentes (de forma a inibir espectadores tóxicos), barrar a sugestão de temas adultos a contas familiares e etc.
O YouTube trabalha de perto com criadores e revisores, para identificar corretamente um vídeo como impróprio e sinaliza-lo para remoção, de forma a reduzir falsos positivos e acabar apagando publicações legítimas, enquanto pune usuários indevidamente, enquanto os conteúdos tóxicos passam pela peneira.
É aqui que entra uma das partes mais difíceis, que é identificar discursos de ódio. O grande problema para algoritmos é saber distinguir o uso de uma palavra de acordo com o contexto, de forma que um vídeo legítimo, que use uma determinada expressão possa permanecer no serviço. Enquanto outro, que fez uso da mesma expressão mas com uma conotação de ódio, seja removido assim que identificado.
Segundo o YouTube, o serviço colabora desde 2017 com diversos usuários e empresas de tecnologia para a identificação correta de conteúdo nocivo via algoritmos. A empresa contribui com bancos de dados para aumentar as identificações positivas, enquanto reduz os erros. De acordo com dados oficiais, 87% dos 9 milhões de vídeos removidos no segundo trimestre de 2019 foram sinalizados inicialmente via algoritmos.
Comentários
Envie uma perguntaOs mais notáveis