Início » Inteligência Artificial » IA do Google aprende a ficar mais “agressiva” em situações estressantes

IA do Google aprende a ficar mais “agressiva” em situações estressantes

Por
23 semanas atrás
Já conhece a nova extensão do Tecnoblog? Baixe Agora

Quem estudou o dilema do prisioneiro já sabe: na escolha por cooperar ou dedurar o amiguinho, o resultado final pode ser bem egoísta se o benefício próprio for melhor que o coletivo. Esse problema também permeia a inteligência artificial, que em um futuro distópico pode acabar com a humanidade. Em testes, o Google não vem nos dando notícias muito boas.

Em um artigo publicado por pesquisadores da DeepMind, divisão de IA do Google, os pesquisadores testaram em dois jogos as probabilidades de cooperação entre dois agentes de IA. Os resultados mostram que, até a situação ficar dentro do controle, um agente prefere cooperar. Depois, a derrota do inimigo é preferível, caso a cooperação não tenha maiores benefícios.

O primeiro jogo, chamado de Gathering, colocava os dois jogadores frente a frente para coletar o maior número de maçãs possível. Conforme o número de frutas ia diminuindo, os agentes ficaram agressivos e começavam a atacar um ao outro com raios de laser, que paralisavam o outro jogador por alguns segundos.

Teoricamente, se ambos cooperassem, poderiam acabar com a mesma quantidade de maçãs ― tática que algoritmos menos desenvolvidos da DeepMind usaram. Mas, com o resultado incerto, os agentes “mais desenvolvidos” preferiram se atacar para assegurar o melhor resultado. O vídeo abaixo mostra a partida acelerada. Os blocos azul e vermelho são os jogadores e os quadrados verdes são as maçãs.

Para chegar ao resultado divulgado, foram mais de 40 milhões de partidas. Os pesquisadores perceberam que, quanto mais o agente aprendia com os jogos, mais táticas agressivas eram usadas para alcançar a vitória, aprendendo com os erros e acertos dentro do seu próprio ambiente.

Em outro jogo, chamado de Wolfpack, os resultados foram menos assustadores. Neste, dois lobos precisavam se unir para capturar uma presa. Em vez de correrem para ver quem chegava primeiro, ambos cooperaram para encurralar a presa. Isso porque a cooperação, nesse cenário, era recompensada com mais pontos: não importa qual lobo pegasse a presa, se o outro também estivesse próximo, ele receberia pontos da mesma forma. Veja o teste no vídeo abaixo:

É interessante (e assustador!) ver como, nestes testes, a IA consegue discernir entre situações em que a agressão e o egoísmo trazem mais vantagens, enquanto em outros cenários, a cooperação é preferível. No blog da DeepMind, o autor do experimento explica que ele serve para entender melhor sistemas complexos de vários participantes, como economia, trânsito e meio-ambiente, “todos que dependem da nossa cooperação contínua”.

Com informações: Science Alert.

Mais sobre: ,
  • Rafael Pereira

    A natureza e os animais são grandes fontes de inspiração para a construção de robôs e IA’s, então a tendência é que também evoluam de forma parecida.

    • Na minha opinião a inteligência artificial deveria ser extremamente limitada, só pra uso de automação.

      E todo trabalho ser voltado pra integração máquina/homem. Assim, SEREMOS o exterminador do futuro e não sua presa.

      Voilà!

      • Ricardo – Vaz Lobo

        Qual seria esse limite? Mas a “graça” não é deixar o bagulho ir aprendendo cada vez mais? tem as 4 leis da robótica…

        • Marcos

          Humanos não respeitam leis, robôs aprendem com humanos, logo robôs não respeitam leis.

          • Ricardo – Vaz Lobo

            A humanidade vai pro ralo mesmo.

  • Ricardo – Vaz Lobo

    Vai ser muito maneiro a gente deixar pruma IA resolver nossas DRs com a patroa. Aí eu quero ver quem vai estar errado.

    • Marsupial radical

      Ih irmão, independente de quem estiver errado uma coisa é certa: O sofá estará lhe esperando de braços abertos.

      • Ricardo – Vaz Lobo

        rarararararaaaaaaaaaaa, lascou…..

    • Comediante

      Num relacionamento, ou você está certo ou você transa.

      • Ricardo – Vaz Lobo

        Pois é.. rararaaaaaa

  • Marcogro

    A máquina é o meu pastor e nada me faltará… Tô treinando, vai que….

    • Ricardo – Vaz Lobo

      Oh brave new world!

  • Carlin

    Bom talvez o problema é querer torna a IA “semelhante” ao inteligencia humana (comportamento, tomadas de decisões etc.), é necessário entender que apensar de tudo a IA age basicamente em busca de melhores resultados, levando em conta sempre o destino final, ou seja no fim do jogo a vitoria, como não existem pontos eticos/sociais ela vai fazer o possivel e impossivel para atingir a vitoria!

    • Ricardo – Vaz Lobo

      Esse é o problema: apesar agirmos basicamente por impulsos egoístas, disfarçados de “boas acções” temos um limite ético/moral/religioso doutrinado por gerações. E eu acho a IA não consideraria um limitador sobrenatural em suas decisões (P-pai do céu vai te castigar etc).
      Enfim, para sobrevivermos às decisões da IA precisaremos virar uns Spocks.
      LL&P.

  • Marcvs Antonivs

    O Google vai acabar levando a espécie humana à extinção, escutem o que tô dizendo!!

  • Vanderlei Gomes Fotografia

    Nada diferente de humanos.

  • Deu até medo esse titulo ai…..kkkkkkkkkk

  • Sandir Leonardo

    Em qualquer situação estamos ferrados! Mesmo no segundo caso, considerado menos preocupante, imagina se duas máquinas decidem cooperar para caçar seres humanos?!

  • Anthony Fernando

    Os caras tão cavando a própria cova.