Golpe usa voz gerada por inteligência artificial para se passar por entes queridos

Países como Estados Unidos e Canadá já se depararam com diversos crimes desse tipo; idosos são o principal alvo dos malfeitores

Ricardo Syozi
Por
• Atualizado há 5 meses
A IA permite que golpistas se passem por outra pessoa (Imagem: Pixabay / mohamed_hassan)

Uma canadense de 73 anos foi vítima de um golpe, no qual o criminoso usou uma voz gerada por inteligência artificial para se passar por seu neto. Ele ligou para a senhora, afirmou estar na cadeia e pediu por dinheiro para pagar a fiança. Isso fez a idosa correr para um banco sacar altos valores, sem ter a menor ideia de que estava sendo enganada.

Segundo o Washington Post, a senhora chamada Ruth Card se sentiu bastante assustada na situação. Ela e o marido, Greg Grace, 75, foram rapidamente ao banco sacar 3 mil dólares canadenses. No entanto, quando tentaram retirar mais dinheiro de uma segunda conta em outro local, o gerente da instituição percebeu e foi falar com o casal.

O profissional explicou que eles podiam ser vítimas de um golpe, pois algo similar havia acontecido com outro correntista. Assim, após a conversa, eles perceberam que o rapaz não se encontrava realmente na prisão. Para o jornal americano, a idosa comentou que estava realmente convencida de que era seu neto no telefone:

Não foi uma história muito convincente, mas não precisava ser melhor do que o que era para nos convencer.

ruth card
Ruth Card (Imagem: Reprodução / Postmedia)

Inteligência artificial se tornou ferramenta para golpistas

Devido à facilidade em usar programas de IA, os criminosos conseguem copiar a fala de qualquer pessoa a partir de uma amostra de poucos segundos. Normalmente, a tecnologia usada é a do deepfake, que pode manipular áudios e simular determinadas vozes, como o timbre e o tom.

Como consequência, fica difícil para o indivíduo questionar se realmente está falando com um conhecido ou não.

Além disso, surge a dificuldade de identificar o infrator, seja pela vítima ou pela polícia, já que é complicado rastrear ligações feitas de várias partes do globo e os transgressores usam a voz de terceiros na ligação.

Nos Estados Unidos, por exemplo, esse tipo de farsa se tornou a segunda mais popular entre os golpistas, com mais de 36 mil relatos apenas em 2022, de acordo com a Federal Trade Comission. Como consequência, mais de US$ 11 milhões foram roubados.

Outra dor de cabeça é que a Justiça não tem precedentes para culpar as empresas que desenvolvem ferramentas para deepfake. O que atrapalha ainda mais os processos legais após um indivíduo ser enganado pelos criminosos por telefone.

Caso de idosos é mais um na lista

Ruth Card e seu marido Greg Grace não foram os primeiros e não serão os últimos a sofrerem esse tipo de golpe.

Por exemplo: Um americano chamado Benjamin Perkin, 39, viu seus pais perderem milhares de dólares devido a um esquema que utilizou sua voz criada por IA. Na situação, um homem ligou para os idosos afirmando que era um advogado. Em seguida, ele disse que o rapaz havia matado um diplomata em um acidente de carro e que estava preso precisando de dinheiro para fiança.

O falso advogado “colocou” Benjamin Perkin no telefone para falar com sua mãe, mas, na verdade se tratava de um áudio gerado por deepfake. Assustados pelo momento, eles acabaram sacando um alto valor e o depositou em um terminal de bitcoin.

Quando descobriram a farsa, era tarde demais. “O dinheiro se foi. Não há seguro. Não tem como revê-lo”, afirmou Perkin.

Receba mais sobre Canadá na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Ricardo Syozi

Ricardo Syozi

Ex-autor

Ricardo Syozi é jornalista apaixonado por tecnologia e especializado em games atuais e retrôs. Já escreveu para veículos como Nintendo World, WarpZone, MSN Jogos, Editora Europa e VGDB. No Tecnoblog, autor entre 2021 e 2023. Possui ampla experiência na cobertura de eventos, entrevistas, análises e produção de conteúdos no geral.

Relacionados