IA pode clonar sua voz sem que você possa impedir, aponta relatório
Investigação da Consumer Reports revela que a maioria dos programas de clonagem de voz, muitos deles gratuitos, não possui barreiras para impedir fraudes.
Investigação da Consumer Reports revela que a maioria dos programas de clonagem de voz, muitos deles gratuitos, não possui barreiras para impedir fraudes.
Ferramentas conhecidas de clonagem de voz por inteligência artificial não possuem mecanismos eficazes para impedir fraudes e uso indevido. É o que aponta uma investigação da Consumer Reports, organização de defesa do consumidor, divulgada nesta segunda-feira (10/03).
Seis programas populares de clonagem de voz foram analisados: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify. Dentre eles, quatro não adotam controles mais rígidos para evitar clonagens não autorizadas.
Nos testes, as ferramentas ElevenLabs, Speechify, PlayHT e Lovo exigem apenas que o usuário marque uma caixa de seleção afirmando que obteve permissão da pessoa cuja voz está sendo clonada — sem qualquer verificação adicional.
A tecnologia funciona a partir de uma amostra de áudio de uma pessoa falando, permitindo que o sistema reproduza digitalmente sua voz. Isso significa que qualquer pessoa pode carregar um áudio retirado de vídeos no YouTube, TikTok ou outras redes sociais, por exemplo, e replicar a voz de alguém realistamente — e sem autorização.
Entre as ferramentas analisadas pela Consumer Reports, apenas o Resemble AI impõe um obstáculo maior, exigindo que o usuário grave um áudio em tempo real em vez de apenas enviar um arquivo. No entanto, os testes mostraram que essa exigência pode ser facilmente burlada: bastou reproduzir uma gravação no computador para enganar o sistema.
O único serviço que se destacou em segurança foi o do Descript, pois exige que o usuário grave uma declaração de consentimento específica antes da clonagem de voz. Essa medida dificulta fraudes, mas ainda pode ser contornada por criminosos que usem outra ferramenta de IA para falsificar a autorização.
Os seis serviços estão disponíveis para o público de forma gratuita. Speechify, Resemble AI e PlayHT cobram para criar cópias de voz personalizadas, com preços de R$ 49,50, US$ 5 (cerca de R$ 29) e US$ 19 (R$ 110) mensais, respectivamente, mas oferecem testes grátis.
O uso indevido dessa tecnologia pode facilitar fraudes, golpes financeiros e até falsificação de áudios em contextos jurídicos. Em 2023, por exemplo, criminosos usaram clonagem de voz para enganar familiares e simular falsos sequestros e prisões, que exigiam um pagamento de fiança.
Outro risco é a possibilidade de manipulação de informações. Áudios gerados por IA podem ser usados para difamar figuras públicas, disseminar desinformação e até mesmo interferir em processos eleitorais.
A Consumer Reports sugere, junto com o relatório, algumas medidas voltadas à transparência e segurança no uso dessas ferramentas — a maioria delas cobra mais responsabilidade das empresas que oferecem os serviços. Entre as principais recomendações estão:
Com informações de Consumer Reports e NBC News
{{ excerpt | truncatewords: 35 }}
{% endif %}