Criminosos usam IA para aplicar golpes em executivos

Especialistas afirmam que IA pode processar dados e imitar escrita, criando ataques de phishing sofisticados e direcionados

Giovanni Santa Rosa
• Atualizado ontem às 17:47
Resumo
  • Criminosos têm usado IA para aplicar golpes personalizados em executivos de grandes empresas.
  • Ferramentas de IA generativa imitam escrita e estilo, o que facilita ciberataques sofisticados e mais específicos.
  • A Microsoft e a OpenAI detectaram o uso da ferramenta em ataques de phishing ligados a serviços de inteligência da China, Irã, Rússia e Coreia do Norte. 

Criminosos estão usando inteligência artificial generativa para criar golpes de phishing personalizados, tendo como alvo executivos de alto escalão de grandes empresas, de acordo com a seguradora Beazley e a plataforma de comércio eletrônico eBay.

Segundo Kirsty Kelly, chefe de segurança da informação da Beazley, as mensagens direcionadas a líderes corporativos estão se tornando muito pessoais. Por isso, ela acredita que os golpistas estão usando IA no processo. “Estamos começando a ver ataques direcionados que rasparam uma quantidade imensa de informações sobre uma pessoa”, explica Kelly ao jornal Financial Times.

“A disponibilidade de ferramentas de IA generativa reduz a barreira de entrada para crimes cibernéticos avançados”, comenda Nadezda Demidova, pesquisadora de segurança do eBay. Ela diz ter notado um crescimento de ciberataques, principalmente em golpes de phishing “sofisticados e bem direcionados”.

A publicação explica que os robôs utilizados podem estar processando os dados obtidos para replicar o tom e o estilo de uma empresa ou indivíduo. Além disso, informações das redes sociais do alvo escolhido podem dar pistas de quais são os assuntos de interesse da pessoa. Assim, fica mais fácil saber o que pode chamar a atenção dela.

Cibercriminosos se aproveitam da IA há anos

A existência dos golpes direcionados com ajuda de IA não chega a surpreender. Desde que o ChatGPT foi lançado e se tornou popular, lá no fim de 2022, surgem relatos de que a ferramenta é capaz de ajudar pessoas mal-intencionadas.

Logo nos primeiros meses, pesquisadores perceberam que era possível usar o robô para gerar códigos de malware. Os bloqueios existentes podiam ser driblados com “jeitinho”, como pedir para complementar um script já existente. Outra forma era usar a API da OpenAI, que não contava com as mesmas restrições do ChatGPT. Um robô no Telegram recorria a este método e cobrava US$ 5,50 por 100 envios de mensagens.

A Microsoft e a OpenAI também encontraram contas que usavam o ChatGPT para aprimorar ataques de phishing e spoofing. Segundo as empresas, estas contas estavam ligadas a serviços de inteligência de China, Irã, Rússia e Coreia do Norte.

Com informações de Financial Times

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.