Google lança inteligência artificial que promete raciocinar melhor

Empresa quer melhorar ponto fraco dos modelos de IA atuais, que têm muita dificuldade de exercitar a lógica para resolver problemas

Giovanni Santa Rosa

O Google lançou nesta sexta-feira (dia 20/12) o modelo de inteligência artificial Gemini 2.0 Flash Thinking. Ainda em fase experimental, ele é apresentado como o melhor para “compreensão multimodal, raciocínio e geração de códigos”, com capacidade para “raciocinar sobre os problemas mais complexos” de programação, matemática e física.

O Gemini 2.0 Flash Thinking demora mais que seus concorrentes especializados em linguagem na hora de responder um prompt, podendo ficar alguns segundos ou até minutos “pensando”. O modelo considera pedidos relacionados e “explica” a linha de raciocínio. Depois disso, resume o método adotado e apresenta a resposta que ele avalia como a mais precisa.

Parece bonito na teoria, mas nem sempre isso funciona na prática. O TechCrunch perguntou pra IA quantas letras R existem na palavra “strawberry”. O Gemini 2.0 Flash Thinking pensou, explicou e… errou, dizendo que há duas letras R.

Por enquanto, o Gemini 2.0 Flash Thinking está disponível apenas no Google AI Studio, plataforma da empresa para prototipagem.

Raciocínio ainda é um desafio para IA

A pergunta de quantos R há em “strawberry” se tornou famosa há alguns meses, depois que usuários perceberam que quase nenhum chatbot de IA é capaz de acertar a resposta na primeira tentativa.

Até o momento, as soluções mais populares de IA generativa — como ChatGPT, Copilot e o próprio Gemini, do Google — têm dificuldades quando o usuário faz pedidos que exigem raciocínios um pouco mais complexos. Descrever problemas matemáticos, por exemplo, nem sempre traz a solução certa.

Isso acontece porque, por trás dessas ferramentas, estão modelos de linguagem em larga escala (LLMs, na sigla em inglês). Eles são bons para decodificar pedidos e juntar palavras para formar um texto coeso, mas não têm muita capacidade de articular números e lógica.

Ou, como resume o MIT News, os LLMs são bons para recitar respostas semelhantes às vistas nos textos em que foram treinados, mas muito limitados ao se deparar com novos cenários.

Um estudo deixa isso bem claro: o ChatGPT se saiu muito pior quando precisa resolver problemas de código que apareceram na plataforma de testes LeetCode após 2021. Uma possível explicação para isso está no treinamento do GPT-3.5, que usou dados coletados até 2021 — ele só estaria resolvendo os problemas que conhece.

Aos poucos, as empresas tentam mudar este cenário. A OpenAI apresentou, há alguns meses, o modelo o1, que promete raciocínio lógico aprimorado.

Segundo a empresa, o o1 “pensa” por mais tempo nas questões antes de respondê-las, testando estratégias e encontrando erros nas hipóteses. Com isso, ele foi capaz de acertar 83% das questões de um teste qualificatório para a Olimpíada Internacional de Matemática.

Com informações: TechCrunch, Ars Technica

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.