Meio Bit » Ciência » Relatório da UCL classifica deepfakes como o mais grave crime de IA

Relatório da UCL classifica deepfakes como o mais grave crime de IA

UCL classifica deepfakes como o mais danoso crime de IA, capaz de destruir reputações, desacreditar veículos de mídia e viabilizar golpes

06/08/2020 às 9:30

O cerco aos deepfakes continua se fechando: um novo relatório publicado pelo UCL (Colégio Universitário de Londres), que lista 20 diferentes usos de tecnologias de Inteligência Artificial por criminosos e terroristas que serão perigosos pelos próximos 15 anos, classificou a ferramenta como a mais potencialmente nociva à sociedade, além de ser a mais difícil de combater e identificar.

Reconhecimento facial / deepfake

O artigo (cuidado, PDF) reuniu análises de 31 especialistas em IA, que foram solicitados a classificar os métodos, do mais para o menos perigoso, baseando-se em fatores como o potencial de causar danos, a quantidade de dinheiro que ele é capaz de verter para si em golpes, sua facilidade de uso e por fim, o quão difícil é combatê-lo.

O deepfakes ficaram com a coroa da infâmia por dois motivos: primeiro, a técnica de mapear o rosto de uma pessoa no corpo de outra, sincronizando expressões e movimento dos lábios, aliado a programas adicionais que imitam as vozes dos alvos, é muito difícil de ser identificada, e os métodos disponíveis hoje para diferenciar uma mídia autêntica de uma adulterada ainda não são 100% confiáveis e livres de falsos positivos.

Segundo, os deepfakes são suficientemente flexíveis para serem usados em uma grande variedade de ataques e golpes: um vídeo pode ser usado para desacreditar uma personalidade ou um veículo de mídia, destruir a reputação de um alvo (desde vídeos pr0n fakes à criação de falsas evidências, que podem levar um inocente a ser incriminado) ou criar esquemas em que uma pessoa aparece endossando um produto ou site, que direciona para um golpe visando roubar dados e dinheiro.

Em 2019, um golpe usando deepfake de áudio deu um prejuízo de € 220 mil a uma companhia energética do Reino Unido, em que os falsários ligaram se passando pelo CEO, de modo a facilitar uma transferência de fundos para os golpistas.

Zao / deepfakes

O app chinês Zao, para iPhone e Android, foi o ápice da perigosa banalização dos deepfakes

Segundo os especialistas, a abrangência dos deepfakes e a dificuldade em combatê-los pode levar a um cenário em que as pessoas não mais poderão confiar em nenhum tipo de mídia, seja de vídeo ou de áudio, na preocupação de estar vendo ou ouvindo um material adulterado, oque pode escalar para um problema social generalizado.

E é bom lembrar que os alvos dificilmente se limitam a personalidades, autoridades, grandes empresas ou etc., mas dada à extrema facilidade de uso, qualquer um pode ser uma vítima. A facilidade de compartilhar, vender e disseminar a prática, graças à sua natureza digital, complica ainda mais a situação.

Exatamente por isso, esforços vêm sendo tomados em diversas frentes para criminalizar os deepfakes; há quem defenda que ele seja incluso na mesma categoria de pornografia de vingança, dada a sua natureza original (criar vídeos pr0n de personalidades que não são do meio), e muitas plataformas, do Reddit ao Twitter e Discord, entre outras, cortam um dobrado para impedir sua disseminação.

Referências bibliográficas

CALDWELL, M. et al. AI-enabled future crime. Crime Science, Número 9, Artigo Nº 14 (2020), 13 páginas, 5 de agosto de 2020.

Com informações: UCL News

relacionados


Comentários