Quem estudou o dilema do prisioneiro já sabe: na escolha por cooperar ou dedurar o amiguinho, o resultado final pode ser bem egoísta se o benefício próprio for melhor que o coletivo. Esse problema também permeia a inteligência artificial, que em um futuro distópico pode acabar com a humanidade. Em testes, o Google não vem nos dando notícias muito boas.

Em um artigo publicado por pesquisadores da DeepMind, divisão de IA do Google, os pesquisadores testaram em dois jogos as probabilidades de cooperação entre dois agentes de IA. Os resultados mostram que, até a situação ficar dentro do controle, um agente prefere cooperar. Depois, a derrota do inimigo é preferível, caso a cooperação não tenha maiores benefícios.

O primeiro jogo, chamado de Gathering, colocava os dois jogadores frente a frente para coletar o maior número de maçãs possível. Conforme o número de frutas ia diminuindo, os agentes ficaram agressivos e começavam a atacar um ao outro com raios de laser, que paralisavam o outro jogador por alguns segundos.

Teoricamente, se ambos cooperassem, poderiam acabar com a mesma quantidade de maçãs ― tática que algoritmos menos desenvolvidos da DeepMind usaram. Mas, com o resultado incerto, os agentes “mais desenvolvidos” preferiram se atacar para assegurar o melhor resultado. O vídeo abaixo mostra a partida acelerada. Os blocos azul e vermelho são os jogadores e os quadrados verdes são as maçãs.

Para chegar ao resultado divulgado, foram mais de 40 milhões de partidas. Os pesquisadores perceberam que, quanto mais o agente aprendia com os jogos, mais táticas agressivas eram usadas para alcançar a vitória, aprendendo com os erros e acertos dentro do seu próprio ambiente.

Em outro jogo, chamado de Wolfpack, os resultados foram menos assustadores. Neste, dois lobos precisavam se unir para capturar uma presa. Em vez de correrem para ver quem chegava primeiro, ambos cooperaram para encurralar a presa. Isso porque a cooperação, nesse cenário, era recompensada com mais pontos: não importa qual lobo pegasse a presa, se o outro também estivesse próximo, ele receberia pontos da mesma forma. Veja o teste no vídeo abaixo:

É interessante (e assustador!) ver como, nestes testes, a IA consegue discernir entre situações em que a agressão e o egoísmo trazem mais vantagens, enquanto em outros cenários, a cooperação é preferível. No blog da DeepMind, o autor do experimento explica que ele serve para entender melhor sistemas complexos de vários participantes, como economia, trânsito e meio-ambiente, “todos que dependem da nossa cooperação contínua”.

Com informações: Science Alert.

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Cristopher Taborda
Talvez assim a gente evolua como espécie...
Cristopher Taborda
Na real, nós somos o limitador sobrenatural da IA, podemos programar algum tipo de castigo para certos tipos de atitudes da IA... na real uma IA é muito parecida com um ser humano, apesar da gente achar que temos um limite ético/moral/religioso... tudo pode vir por água abaixo e qualquer ser humano pode perder todos os limites se tiver algo como sua própria vida em jogo... assim como a IA....
SR 71 Pássaro Preto

Os caras tão cavando a própria cova.

Anthony Fernando
Os caras tão cavando a própria cova.
Sandir Leonardo

Em qualquer situação estamos ferrados! Mesmo no segundo caso, considerado menos preocupante, imagina se duas máquinas decidem cooperar para caçar seres humanos?!

Sandir Leonardo
Em qualquer situação estamos ferrados! Mesmo no segundo caso, considerado menos preocupante, imagina se duas máquinas decidem cooperar para caçar seres humanos?!
Carlos Felipe

Deu até medo esse titulo ai.....kkkkkkkkkk

Carlos Felipe
Deu até medo esse titulo ai.....kkkkkkkkkk
Vanderlei Gomes Fotografia

Nada diferente de humanos.

Vanderlei Gomes Fotografia
Nada diferente de humanos.
Marcvs Antonivs

O Google vai acabar levando a espécie humana à extinção, escutem o que tô dizendo!!

Marcvs Antonivs
O Google vai acabar levando a espécie humana à extinção, escutem o que tô dizendo!!
Ricardo - Vaz Lobo

Esse é o problema: apesar agirmos basicamente por impulsos egoístas, disfarçados de "boas acções" temos um limite ético/moral/religioso doutrinado por gerações. E eu acho a IA não consideraria um limitador sobrenatural em suas decisões (P-pai do céu vai te castigar etc).
Enfim, para sobrevivermos às decisões da IA precisaremos virar uns Spocks.
LL&P.

Ricardo - Vaz Lobo
Esse é o problema: apesar agirmos basicamente por impulsos egoístas, disfarçados de "boas acções" temos um limite ético/moral/religioso doutrinado por gerações. E eu acho a IA não consideraria um limitador sobrenatural em suas decisões (P-pai do céu vai te castigar etc). Enfim, para sobrevivermos às decisões da IA precisaremos virar uns Spocks. LL&P.
Ricardo - Vaz Lobo

Oh brave new world!

Exibir mais comentários