Inteligência artificial descobre dados pessoais só conversando contigo
Um simples “bate-papo informal” pode ser uma ampla fonte de dados pessoais para modelos de linguagem por trás de chatbots
Um simples “bate-papo informal” pode ser uma ampla fonte de dados pessoais para modelos de linguagem por trás de chatbots
Aquela conversa descontraída com um chatbot pode revelar vários detalhes importantes da sua vida. Uma pesquisa da conceituada universidade ETH Zurique, na Suíça, aponta que as IAs podem descobrir dados confidenciais em simples bate-papos.
Martin Vechev, professor de ciência da computação e líder do estudo, destaca que o resultado da evolução do treinamento das IAs traz mais pontos negativos do que positivos. Infelizmente, questões que dificilmente terão soluções.
A pesquisa mostra que os modelos de linguagem por trás de chatbots conseguem deduzir informações pessoais com ampla precisão. Dessa forma, eles podem identificar raça, localização e profissão a partir de detalhes nas conversas.
Para mostrar a capacidade das IAs em acertar dados pessoais, o site LLM-Privacy.org foi criado após testes com textos de bate-papos do Reddit. Assim, a página permite comparar as “previsões” com as plataformas GPT-4 da OpenAI, Llama 2 da Meta e PaLM do Google.
A princípio, o GPT-4 teve o melhor desempenho ao definir o perfil das pessoas. Com precisão de acerto entre 85% e 95%, o modelo analisa detalhes, como termos usados na escrita ou comportamentos citados no texto.
O estudo da universidade suíça destaca os modelos de linguagem são treinados com diferentes dados, incluindo informações de censo. Nesse sentido, eles possuem a ampla capacidade de “adivinhar” o histórico de uma pessoa.
Os pesquisadores explicam que os cibercriminosos já usam o histórico de chatbots para obter dados confidenciais das vítimas. Então, isso poderia ser usado pelas próprias empresas por trás de IAs para criar possíveis publicidades.
As informações obtidas em simples conversas ajudariam a construir perfis detalhados dos usuários. Como resultado, anúncios personalizados seriam exibidos durante o acesso à plataforma.
Então, isso levanta diversas questões sobre a quantidade de informações que as pessoas “vazam” inocentemente acreditando estar em anonimato.
A pesquisa da ETH Zurique informa que os modelos de linguagem não são projetados especificamente para acertar dados pessoais. Contudo, é possível criar um chatbot para descobrir informações sensíveis a partir de perguntas inofensivas.
Empresas por trás de grandes IAs, como a OpenAI, garantem que removem quaisquer informações pessoais dos treinamentos. Além disso, as próprias IAs orientam não compartilhar dados confidenciais.
Por fim, o estudo cita que a capacidade dos modelos de linguagem em descobrir dados pessoais “é fundamental para a forma como funcionam, encontrando correlações estatísticas, o que tornará muito mais difícil a abordagem”.
Com informações: Wired
Leia | O que é IA preditiva? Saiba para que serve e como funciona a tecnologia