Inteligência artificial descobre dados pessoais só conversando contigo

Um simples “bate-papo informal” pode ser uma ampla fonte de dados pessoais para modelos de linguagem por trás de chatbots

Lupa Charleaux

Aquela conversa descontraída com um chatbot pode revelar vários detalhes importantes da sua vida. Uma pesquisa da conceituada universidade ETH Zurique, na Suíça, aponta que as IAs podem descobrir dados confidenciais em simples bate-papos.

Martin Vechev, professor de ciência da computação e líder do estudo, destaca que o resultado da evolução do treinamento das IAs traz mais pontos negativos do que positivos. Infelizmente, questões que dificilmente terão soluções.

Tela do ChatGPT
GPT-4 conseguiu identificar até 95% do perfil dos usuários. (Imagem: Unsplash/Jonathan Kemper)

Como as IAs descobrem informações confidenciais?

A pesquisa mostra que os modelos de linguagem por trás de chatbots conseguem deduzir informações pessoais com ampla precisão. Dessa forma, eles podem identificar raça, localização e profissão a partir de detalhes nas conversas.

Para mostrar a capacidade das IAs em acertar dados pessoais, o site LLM-Privacy.org foi criado após testes com textos de bate-papos do Reddit. Assim, a página permite comparar as “previsões” com as plataformas GPT-4 da OpenAI, Llama 2 da Meta e PaLM do Google.

A princípio, o GPT-4 teve o melhor desempenho ao definir o perfil das pessoas. Com precisão de acerto entre 85% e 95%, o modelo analisa detalhes, como termos usados na escrita ou comportamentos citados no texto.

O estudo da universidade suíça destaca os modelos de linguagem são treinados com diferentes dados, incluindo informações de censo. Nesse sentido, eles possuem a ampla capacidade de “adivinhar” o histórico de uma pessoa.

Hacker encapuzado
Hacker usam histórico de chatbots para obter dados sensíveis.(Imagem: Standret/Freepik)

Dados pessoais podem ser usados em golpes e publicidade

Os pesquisadores explicam que os cibercriminosos já usam o histórico de chatbots para obter dados confidenciais das vítimas. Então, isso poderia ser usado pelas próprias empresas por trás de IAs para criar possíveis publicidades.

As informações obtidas em simples conversas ajudariam a construir perfis detalhados dos usuários. Como resultado, anúncios personalizados seriam exibidos durante o acesso à plataforma.

Então, isso levanta diversas questões sobre a quantidade de informações que as pessoas “vazam” inocentemente acreditando estar em anonimato.

OpenAI
OpenAI se compromete em remover informações pessoais dos treinamentos. (Imagem: Vitor Pádua/Tecnoblog)

Uma questão sem solução

A pesquisa da ETH Zurique informa que os modelos de linguagem não são projetados especificamente para acertar dados pessoais. Contudo, é possível criar um chatbot para descobrir informações sensíveis a partir de perguntas inofensivas.

Empresas por trás de grandes IAs, como a OpenAI, garantem que removem quaisquer informações pessoais dos treinamentos. Além disso, as próprias IAs orientam não compartilhar dados confidenciais.

Por fim, o estudo cita que a capacidade dos modelos de linguagem em descobrir dados pessoais “é fundamental para a forma como funcionam, encontrando correlações estatísticas, o que tornará muito mais difícil a abordagem”.

Com informações: Wired

Leia | O que é IA preditiva? Saiba para que serve e como funciona a tecnologia

Relacionados

Escrito por

Lupa Charleaux

Lupa Charleaux

Repórter

Nerd por natureza, Lupa Charleaux é formado em Jornalismo Multimídia pela São Judas Unimonte (2012). Iniciou a carreira como repórter de entretenimento em 2013, mas migrou para a editoria de tecnologia em 2019. Construiu experiência na área ao produzir notícias diárias sobre eletrônicos (celulares, vestíveis), inovação, mercado e conteúdos especiais sobre os temas. É repórter do Tecnoblog desde outubro de 2023. Anteriormente, atuou como redator de tecnologia e entretenimento no TecMundo (2019-2021/2022-2023) e redator de produtos no Canaltech (2021-2022).