Experimento mostra que pessoas manipulam IA em benefício próprio

Pesquisadores de Universidade americana aplicaram a teoria dos jogos entre humanos e IAs. Pessoas negam ofertas baixas das inteligências artificiais

Felipe Freitas
Por
Inteligência artificial
Teoria dos jogos aplicada entre pessoas e IA mostra que comportamento humano muda ao treinar uma inteligência artificial (Imagem: Vitor Pádua / Tecnoblog)

Como um humano e uma IA se sairiam em um cenário da teoria dos jogos? Pesquisadores da Universidade de Washington, localizada na cidade americana de St. Louis, testaram essa interação e o resultado foi este: os humanos passam a rejeitar as ofertas da IA após descobrirem que elas são as parceiras de jogo. Para os pesquisadores, isso mostra um problema no treinamento de IAs.

A teoria dos jogos é um modelo matemático usado em diferentes áreas de sociais aplicadas. Ela visa compreender como duas pessoas se saem em situações que exigem cooperação, como dividir uma quantia de dinheiro. Nesses casos, os envolvidos podem ter uma interação na qual um lado ganha e outro perde, ganha-ganha ou perde-perde.

Humanos não querem cooperar com IAs?

O jogo aplicado no teste é um dos clássicos da teoria dos jogos. Na pesquisa, um lado tem US$ 10 (R$ 55) para dividir e precisa oferecer uma parte ao outro. Se a oferta for negada, todos perdem e ficam sem nenhum dinheiro. Geralmente, nessa situação, as pessoas tendem a aceitar as ofertas divididas igualmente (50%-50%) ou que estão próximas disso.

Inteligência artificial
Comportamento humano ao treinar IA pode deixá-las enviesadas para determinados assuntos (Imagem: Vitor Pádua / Tecnoblog)

No teste, o comportamento dos humanos mudou após o jogo ser realizado com uma inteligência artificial e eles serem informados disso — uma parte seguiu sem saber quem estava do outro lado. Os pesquisadores ainda explicaram que a interação serviria para treinar a IA. Ao invés de aceitar as ofertas de divisão igual, as pessoas jogando com inteligências artificias passaram a rejeitá-las.

Para os pesquisadores, isso mostra que os seres humanos podem agir de modo enviesado quando está treinando uma IA. Nos testes, a rejeição da oferta influenciaria a inteligência artificial a entregar propostas mais vantajosas. Por exemplo, entender que precisa ofertar 60% ou mais do valor ao outro lado.

IAs mais generosas que americanos

Cédulas de dólar (Imagem: Mackenzie Marco/Unsplash)
9 para mim, 1 para você: teste poderia deixar IAs mais generosas que os americanos (Imagem: Mackenzie Marco/Unsplash)

Estudos da teoria dos jogos com americanos mostram que as eles tendem a rejeitar ofertas 70-30 (70% para o autor, 30% para o outro) e maiores. Assim, ao treinar a IA para fazer ofertas piores para ela, os participantes a deixariam mais “generosa”, mesmo que não se beneficiassem desse comportamento no futuro.

O jogo de negociação foi refeito informando aos usuários que eles não treinariam mais a IA. Porém, os participantes seguiram rejeitando ofertas consideradas boas (50-50, 60-40). Para os pesquisadores, isso mostra que a criação de um hábito pode prejudicar o treinamento correto das IAs.

Para as inteligências artificiais feitas com LLM, o impacto pode ser menor. Contudo, em casos que humanos são necessários para aprimorar o treinamento, há o risco de IAs enviesadas. O Gemini, quando ainda era Bard, precisou de um “intensivão” de vários assuntos com funcionários do Google.

Com informações: Ars Technica

Relacionados

Escrito por

Felipe Freitas

Felipe Freitas

Repórter

Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.