Hackers violam segurança para forçar ChatGPT a escrever malware

Bot de Telegram usa API da inteligência artificial para contornar restrições, criar códigos para roubar informações e imitar e-mails de bancos

Giovanni Santa Rosa
Por
• Atualizado há 5 meses
Conferência de machine learning proíbe artigos gerados pelo ChatGPT / Max Pixel
Inteligência artificial (Imagem: Max Pixel)

O ChatGPT promete agilizar uma série de tarefas do dia a dia, como buscar informações, escrever códigos ou redigir e-mails. Ele pode, também, facilitar o desenvolvimento de malwares, golpes e outros ataques. Cibercriminosos estão driblando as restrições e colocando a inteligência artificial para fazer seu trabalho sujo.

A OpenAI, empresa por trás do ChatGPT, colocou algumas barreiras no algoritmo para impedir que ele seja usado para desenvolver programas maliciosos ou campanhas de roubo de informações.

Ao pedir diretamente à inteligência artificial para escrever um e-mail de phishing ou um código de malware, por exemplo, o programa responde que não pode fazer essas tarefas, porque elas são ilegais.

No entanto, cibercriminosos deram um jeitinho para ela executar trabalhos desse tipo.

Telegram e scripts violam segurança do ChatGPT

O laboratório Check Point Research, da empresa de cibersegurança Check Point descobriu duas formas usadas por agentes mal-intencionados.

Uma delas envolve a API do GPT-3, que serve de base para o ChatGPT. Ela não tem as mesmas restrições do programa que ficou famoso nos últimos meses.

A partir dela, os criminosos conseguiram criar um bot de Telegram que se conecta à inteligência artificial, mas não tem as mesmas restrições que ela.

Usando este robô, os pesquisadores da Checkpoint conseguiram pedir que o algoritmo escrevesse uma mensagem se passando por um banco, para ser usada em um e-mail de phishing, e um script que coleta arquivos PDF e os envia para um servidor externo usando FTP.

Os desenvolvedores do bot, inclusive, usam a ferramenta como negócio. As primeiras 20 mensagens são grátis. A partir disso, eles cobram US$ 5,50 por 100 envios.

Esta não é a única forma de driblar a segurança. Os cientistas da Checkpoint Security encontraram, em um fórum online, um script que contorna a segurança do ChatGPT e permite usá-lo como o usuário quiser — até para desenvolver malware.

Se pedir com jeitinho, ele faz

Não é a primeira vez que a Check Point Research pega o ChatGPT criando malware.

Em janeiro de 2023, os pesquisadores encontraram posts em fóruns de hackers que traziam relatos do uso da inteligência artificial para aprimorar códigos, complementar scripts ou até mesmo fazer malwares do zero.

Em resposta, a OpenAI colocou restrições para evitar que a ferramenta fosse explorada dessa forma.

No entanto, nos testes feitos pelo Tecnoblog, foi possível criar um código para abrir o drive de CD — uma brincadeira inofensiva.

Em uma primeira tentativa, o ChatGPT se recusou. Na segunda, ele fez. O que mudou? No primeiro pedido, a palavra “malware” foi usada, mas no segundo, não.

Com informações: Check Point Research, Ars Technica.

Receba mais sobre Telegram na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.

Relacionados