Gemini grátis fica mais rápido com adoção do LLM 1.5 Flash
Nova versão do Gemini é capaz de processar quatro vezes mais tokens, atingindo 32 mil caracteres. Google também libera links nas respostas da IA
Nova versão do Gemini é capaz de processar quatro vezes mais tokens, atingindo 32 mil caracteres. Google também libera links nas respostas da IA
O Google anunciou nesta quinta-feira (25) o lançamento do Gemini 1.5 Flash, uma atualização de desempenho para a sua IA generativa. Esse update no LLM estava nas assinaturas dos serviços de inteligência artificial da big tech, mas agora todos os usuários podem usar o Gemini 1.5 Flash gratuitamente. O Google promete que as respostas com esta versão do LLM serão mais rápidas e mais inteligentes.
A novidade foi revelada pelo Google em seu blog oficial. A empresa informou que o Gemini Flash 1.5 está disponível em mais de 40 idiomas e liberado em 230 localidades — o que inclui países e territórios integrantes de outras nações. Basicamente a big tech liberou o novo LLM para todo o mundo.
Para testar o Gemini 1.5 Flash você pode acessar a página do recurso. Em seu comunicado, o Google informa que o novo modelo é capaz de processar quatro vezes mais tokens que o LLM anterior — saiu de 8 mil tokens para 32 mil tokens, quatro vezes menor que o Llama 3.1 anunciado pela Meta na terça-feira (23).
O maior número de processamento desses itens, também chamado de caracteres de contexto, é uma das principais especificações para entender o desempenho da IA generativa. Quanto maior esse número, melhor pode ser o resultado — o que inclui a precisão de realizar o que foi pedido pelo usuário.
A rapidez com que uma resposta é gerada também é um fator atrativo no desempenho de uma IA. Afinal, o povo tem pressa em ter suas demandas respondidas.
O Google também informou que o Gemini passará a mostrar links de conteúdos relacionados as pesquisas pela IA. Contudo, essa funcionalidade só está disponível para solicitações feitas em inglês e em alguns países (que não foram listados pela empresa, mas podemos supor que são nos falantes de inglesa).