Phi-3: Microsoft anuncia seu menor modelo de inteligência artificial

Modelos mais leve conta com 3,8 bilhões de parâmetros. Comunidade pode baixar o Phi-3 Mini no Azure AI Studio, Hugging Face e Ollama.

Thássius Veloso
Por
Ilustração com o texto "AI" ao centro
Modelo Phi-3 Mini conta com 3,8 bilhões de parâmetros (Ilustração: Vitor Pádua/Tecnoblog)
Resumo
  • A Microsoft anunciou sua nova linha de modelos de inteligência artificial Phi-3, destacando-se como os menores já desenvolvidos pela empresa. A versão Mini possui 3,8 bilhões de parâmetros, enquanto a Small chega a 7 bilhões e a Medium, a 14 bilhões.
  • O Phi-3 Mini já está disponível para desenvolvedores em plataformas como Azure AI Studio, Hugging Face e Ollama, e pode ser utilizado gratuitamente, seguindo uma tendência de democratização do acesso a LLMs.
  • Sebastien Bubeck, vice-presidente de GenAI na Microsoft, destacou que o Phi-3 é o único modelo capaz de funcionar diretamente em smartphones sem necessidade de conexão com a internet, embora ainda não existam parcerias com fabricantes de telefones.

A Microsoft se mantém na corrida pela inteligência artificial. Nesta terça-feira (dia 23/04), a empresa anunciou a linha de modelos de IA Phi-3, os menores já criados pela companhia. Essa característica deve se traduzir em maior eficiência quando forem usados em aplicações do dia a dia.

São três modelos distintos dentro da geração Microsoft Phi-3:

  • Phi-3 Mini com 3,8 bilhões de parâmetros
  • Phi-3 Small com 7,0 bilhões de parâmetros
  • Phi-3 Medium com 14,0 bilhões de parâmetros

Não custa lembrar: os “parâmetros“ fazem referência à capacidade de um modelo compreender instruções complexas, de acordo com o The Verge.

Por ora, a empresa liberou somente a versão Mini para desenvolvedores. É possível baixá-la no Azure AI Studio, no Hugging Face e no Ollama.

A disputa das LLMs

Eu participei de uma entrevista coletiva com o vice-presidente de GenAI, Sebastien Bubeck. Ele defendeu a proposta de “democratizar o acesso a LLMs com excelente capacidade”. O Phi-3 Mini está disponível para a comunidade de graça, assim como fez a Meta com o Llama-3 no dia 18/04.

De acordo com o executivo, o Phi-3 Mini é o primeiro modelo deste tamanho a suportar janela de contexto de 128 mil tokens.

Gigantes da tecnologia estão em busca do desenvolvimento de LLMs que tenham bom custo-benefício. Em outras palavras, que possam rodar bem em dispositivos do dia a dia, como smartphones e tablets. Numa extremidade estaria o Mistral Tiny, bem como o Phi-3 Mini. Os LLMs Llama-2 e Llama-3 seriam considerados intermediários. Na outra extremidade estariam o GPT-4 e o Claude-3 Opus.

Diretamente no smartphone

Retrato de um homem de pé sorrindo
Sebastien Bubeck é especialista em GenAI (Foto: Divulgação/Microsoft)

Durante a reunião com jornalistas, Bubeck reforçou que o Phi-3 é o único modelo capaz de funcionar diretamente no telefone, sem necessidade de conexão com a internet. No entanto, ele me respondeu que nenhuma fabricante de smartphones é parceira da Microsoft neste anúncio. Teremos de aguardar para ver a adesão do mercado.

Hoje em dia, é notável a integração da Samsung com o Google. A empresa oferece a suíte Galaxy AI com alguns recursos desenvolvidos internamente e outros que dependem do gigante da internet. Já a Motorola está reforçando a aposta no Motorola AI, suíte de inteligência artificial presente no Edge 50, também com aplicações adquiridas de terceiros e dependentes da nuvem.

O Phi-3 foi treinado e otimizado para inglês. A Microsoft reconheceu que as capacidades dele em outros idiomas “são limitadas”. Por isso, a empresa incentiva que os consumidores utilizem o serviço Microsoft Translator para traduzir os prompts e as respostas.

E por fim: ao contrário do Gemini e outros modelos do mercado, o Phi-3 não é multimodal. Ele depende basicamente de texto escrito.

Relacionados