Google diz que novas IAs resolvem problemas da Olimpíada de Matemática
AlphaProof e AlphaGeometry 2 combinam compreensão de texto do Gemini com capacidade de linguagens de programação convencionais
AlphaProof e AlphaGeometry 2 combinam compreensão de texto do Gemini com capacidade de linguagens de programação convencionais
A Google DeepMind, divisão de inteligência artificial da Alphabet, apresentou nesta quinta-feira (25) seus novos modelos AlphaProof e AlphaGeometry 2. Segundo a empresa, eles foram capazes de resolver quatro dos seis problemas da Olimpíada Internacional de Matemática de 2024. A prova envolve tópicos como álgebra e geometria e é voltada para estudantes do ensino médio. O desempenho da IA está no mesmo nível dos medalhistas de prata deste ano.
Ferramentas como o ChatGPT e Gemini, baseadas em modelos de linguagem grandes (LLMs, em inglês), conseguem gerar textos coerentes e articulados a partir de pedidos feitos de forma natural. Por outro lado, eles têm dificuldades para compreender problemas envolvendo matemática e aplicar raciocínio lógico para resolvê-los.
Para tentar superar este problema, o Google combinou seus modelos, no que chama de abordagem “neurossimbólica”. Ela combina a aprendizagem de máquina de uma rede neural artificial e as linguagens de programação convencionais.
O AlphaProof tem suas origens no AlphaGo, que ficou famoso lá em 2017, ao derrotar o melhor jogador do mundo no jogo de tabuleiro Go. Ele conseguiu estas habilidades por meio de treinamento intensivo. A empresa, então, replicou o método para ele aprender matemática.
Apesar de suas dificuldades com números e lógica, o LLM Gemini também teve seu papel. Ele foi responsável por converter os textos dos problemas de matemática em uma linguagem de programação chamada Lean.
A partir disso, o AlphaProof poderia treinar suas provas matemáticas — isto é, o processo lógico para demonstrar a validade de uma afirmação matemática. Assim como o AlphaGo, este treinamento é baseado em tentativa e erro, levando o modelo a entender como encontrar provas corretas.
O processo no AlphaGeometry é parecido: ele usa o Gemini para converter problemas de geometria em formas geométricas, que podem ser manipuladas e testadas por um programa. Agora, ele foi aperfeiçoado no AlphaGeometry 2.
Ao acertar quatro das seis questões e “conquistar” uma medalha de prata, o Google DeepMind mostra que é possível melhorar a capacidade de raciocínio lógico dos LLMs, combatendo sua tendência a alucinar e escrever qualquer coisa ao se deparar com uma situação deste tipo.
Mesmo assim, a abordagem ainda tem problemas. À Wired, David Silver, pesquisador do Google DeepMind que liderou os trabalhos do AlphaZero, explica que os modelos foram treinados para resolver testes, em que existem soluções corretas e erradas.
Isso significa que eles podem não se sair tão bem em problemas do mundo real, em que há muitas soluções possíveis, cada uma com suas vantagens e desvantagens. Silver acredita que a solução para isso possa ser um modelo de linguagem que tente determinar o que constitui uma resposta certa durante o treinamento.
O pesquisador também acredita que a IA será mais uma ferramenta, como calculadoras e réguas de cálculo. “Isso não é o fim do que os matemáticos podem fazer. Uma parte importante da matemática é propor problemas e descobrir quais são as perguntas interessantes”, avalia o cientista.
Com informações: Google DeepMind, Bloomberg, Wired
Leia | O que é algoritmo? Entenda como funciona o conjunto de instruções de um programa