Criminosos usam IA para aplicar golpes em executivos
Especialistas afirmam que IA pode processar dados e imitar escrita, criando ataques de phishing sofisticados e direcionados
Especialistas afirmam que IA pode processar dados e imitar escrita, criando ataques de phishing sofisticados e direcionados
Criminosos estão usando inteligência artificial generativa para criar golpes de phishing personalizados, tendo como alvo executivos de alto escalão de grandes empresas, de acordo com a seguradora Beazley e a plataforma de comércio eletrônico eBay.
Segundo Kirsty Kelly, chefe de segurança da informação da Beazley, as mensagens direcionadas a líderes corporativos estão se tornando muito pessoais. Por isso, ela acredita que os golpistas estão usando IA no processo. “Estamos começando a ver ataques direcionados que rasparam uma quantidade imensa de informações sobre uma pessoa”, explica Kelly ao jornal Financial Times.
“A disponibilidade de ferramentas de IA generativa reduz a barreira de entrada para crimes cibernéticos avançados”, comenda Nadezda Demidova, pesquisadora de segurança do eBay. Ela diz ter notado um crescimento de ciberataques, principalmente em golpes de phishing “sofisticados e bem direcionados”.
A publicação explica que os robôs utilizados podem estar processando os dados obtidos para replicar o tom e o estilo de uma empresa ou indivíduo. Além disso, informações das redes sociais do alvo escolhido podem dar pistas de quais são os assuntos de interesse da pessoa. Assim, fica mais fácil saber o que pode chamar a atenção dela.
A existência dos golpes direcionados com ajuda de IA não chega a surpreender. Desde que o ChatGPT foi lançado e se tornou popular, lá no fim de 2022, surgem relatos de que a ferramenta é capaz de ajudar pessoas mal-intencionadas.
Logo nos primeiros meses, pesquisadores perceberam que era possível usar o robô para gerar códigos de malware. Os bloqueios existentes podiam ser driblados com “jeitinho”, como pedir para complementar um script já existente. Outra forma era usar a API da OpenAI, que não contava com as mesmas restrições do ChatGPT. Um robô no Telegram recorria a este método e cobrava US$ 5,50 por 100 envios de mensagens.
A Microsoft e a OpenAI também encontraram contas que usavam o ChatGPT para aprimorar ataques de phishing e spoofing. Segundo as empresas, estas contas estavam ligadas a serviços de inteligência de China, Irã, Rússia e Coreia do Norte.
Com informações de Financial Times