Vimos a Apple Intelligence em ação nos EUA; saiba como será

Poucos brasileiros participaram de demonstração no campus da Apple nos Estados Unidos. Sistema de machine learning estará presente nos iPhones, iPads e MacBooks do futuro.

Thássius Veloso
Por
• Atualizado há 2 semanas
Craig Federighi explica funcionamento da Apple Intelligence (Imagem: Reprodução/Apple)
Craig Federighi explica funcionamento da Apple Intelligence (Imagem: Reprodução/Apple)
Resumo
  • A Apple revelou a Apple Intelligence, uma IA que entende o contexto do usuário e auxilia em tarefas diárias.
  • Em uma demonstração, a Apple Intelligence reescreveu e resumiu textos em e-mails, mostrando opções de estilo como casual ou profissional.
  • A função de resumo de textos em documentos mostrou rapidez, levando cerca de 3 segundos para processar informações.
  • No app Fotos, comandos de voz ou escritos criam colagens animadas com base em informações específicas do usuário, como eventos e pessoas.
  • A Apple Intelligence também oferece ferramentas para criar emojis personalizados e ilustrações, e remove objetos indesejados de fotos.

(Direto de Cupertino, nos EUA) A Apple revelou a Apple Intelligence na semana passada. Trata-se da inteligência artificial que compreende o contexto do usuário e o auxilia em diversas tarefas do dia a dia, de acordo com a empresa. Pense numa Siri turbinada ou num ChatGPT que sabe as suas informações particulares, que ficam armazenadas no iPhone. É mais ou menos por aí. E eu pude ver a Apple Intelligence em ação numa sessão exclusiva de demonstração para jornalistas estrangeiros.

O encontro ocorreu numa sala do Apple Park, o campus da companhia na cidade de Cupertino, nos Estados Unidos. Nós tivemos pouco menos de uma hora para observar as variadas funções de IA que estarão nos futuros iPhones, iPads e MacBooks, entre outros dispositivos da Apple.

É importante frisar que as ações foram realizadas por membros do time da Apple. Nós não pudemos interagir diretamente com os aparelhos nem tirar fotos. De toda forma, foi a primeira vez que pessoas de fora da gigante de Cupertino puderam ver a Apple Intelligence funcionando.

O que é Apple Intelligence?

Função de resposta inteligente baseada na Apple Intelligence (Imagem: Reprodução/Apple)
Função de resposta inteligente baseada na Apple Intelligence (Imagem: Reprodução/Apple)

Conhecer de perto a Apple Intelligence foi uma experiência única. Somente quatro profissionais do Brasil participaram da sessão exclusiva. Todas as explicações foram dadas em inglês. Aliás, a própria Siri com AI só atua neste idioma – ao menos por enquanto, e a companhia não divulgou informações sobre o suporte futuro a outros idiomas.

A primeira demonstração ocorreu num MacBook com o aplicativo Mail. Um representante da Apple abriu um email com cerca de quatro parágrafos. Ao percorrer o mouse pela tela, surgiu um menu de contexto que dava a opção de revisar o material.

Todo o processo de IA generativa levou cerca de 5 segundos. A seguir, a ferramenta indicou mudanças para que o texto ficasse mais conciso e correto. A interface dá opções de estilos, como causal ou profissional, numa pegada que lembra o Galaxy AI no WhatsApp.

Não custa lembrar que o Gmail oferece a função de resposta inteligente há anos. No entanto, me parece ser mais limitada, com textos curtos e que praticamente não entram no mérito do que foi enviado pelo remetente.

Mail para macOS reescreve mensagem (Imagem: Reprodução/Apple)
Mail para macOS reescreve mensagem (Imagem: Reprodução/Apple)

A Apple Intelligence vai além. Ela está, portanto, mais próxima do que temos visto em ferramentas de escritório recentemente atualizadas pelo Google e pela Microsoft.

A Apple explica que todos os modelos de inteligência artificial usados na Apple Intelligence foram desenvolvidos internamente e treinados tanto com dados da Apple quanto de fornecedores do mercado. A empresa americana não dá detalhes sobre o número de modelos, suas tarefas específicas e nem os parceiros.

Resumo de texto no iPad (Imagem: Reprodução/Apple)
Resumo de texto no iPad (Imagem: Reprodução/Apple)

Outra demonstração relevante tem a ver com textos muito longos naquele dia que você precisa de informações curtas. Uma pessoa da Apple abriu um documento no notebook e ativou a função de resumo. O processamento da IA generativa levou somente cerca de 3 segundos.

É importante dizer que não tivemos oportunidade de avaliar a qualidade do conteúdo gerado pela Apple Intelligence. Por se tratar de uma reunião, os representantes da empresa focaram em explicar o funcionamento das coisas e qual será seu impacto na vida cotidiana das pessoas.

“Queremos produzir um resultado de qualidade”, nos disse um membro da Apple. A empresa prefere não divulgar os nomes de funcionários que interagem com a imprensa pois o foco é no produto.

Compreensão do contexto

O aplicativo Fotos foi totalmente desenhado para o iOS 18, que ainda está por vir. A Apple Intelligence marcará presença nele por meio de comandos (falados ou escritos, uma novidade da nova geração da Siri) como “minhas melhores escaladas com Don, e termine com uma selfie”.

A partir disso, uma belíssima animação simulando uma colagem de imagens surge na tela do iPhone. A memória – espécie de vídeo com trilha sonora e os melhores momentos daquela ocasião – leva cerca de 15 segundos para ficar pronta.

Todos na sala ficaram impressionados com a qualidade do resultado final. Para chegar nele, a IA da Apple leva em consideração informações armazenadas especificamente naquele aparelho. Quem é Don? Ela sabe. O que é uma escalada? Ela também sabe. Quer que uma selfie termine o álbum? Bom, você já entendeu.

Uma pessoa da Apple explicou que esta função vale tanto para imagens salvas localmente quanto para as fotografias armazenadas no iCloud. Imagino que a velocidade e o desempenho da função dependam do número de figuras salvas pelo usuário.

Remoção de objetos no iOS 18 (Imagem: Reprodução/Apple)
Remoção de objetos no iOS 18 (Imagem: Reprodução/Apple)

Já a função de apagar objetos chega ao iOS depois de um período no macOS. A Apple estaria se atualizando em relação ao que se vê nos aparelhos da Samsung com Galaxy AI. Os adeptos do telefone da maçã poderão apagar os elementos que atrapalharem o clique perfeito. No entanto, é preciso ter em mente que a ferramenta “jamais” irá eliminar os protagonistas da imagem, de acordo com informações oficiais.

Assim como os Animojis e Memojis já frequentaram o imaginário em torno da Apple, pode ser que os Genmojis estejam em campanhas publicitárias. Em resumo: o usuário descreve um objeto e a tecnologia da Apple Intelligence cria um emoji com tais características. Por exemplo: cesta de morangos. Isso não existe no catálogo oficial da Unicode, organização responsável por normatizar as figurinhas de que tanto gostamos.

O iPhone rapidamente produz um emoji nos moldes do sistema da Apple, de forma segura. Todo o processo leva cerca de 5 segundos. Cabe lembrar que a Meta implementou a função de figurinha por IA no WhatsApp há algumas semanas. Você já usou? Eu recorro a ela com frequência. Algo similar estará na Apple Intelligence.

Image Playground gera ilustrações a partir de prompt (Imagem: Reprodução/Apple)
Image Playground gera ilustrações a partir de prompt (Imagem: Reprodução/Apple)

A Apple revelou o ambiente chamado de Image Playground, em que o usuário pode descrever uma ilustração para que ela seja produzida com apoio da IA generativa. Seu funcionamento me pareceu mais veloz do que o Microsoft Design, que depende da internet e usa tecnologia do Dall-E 3.

Os resultados foram bonitos, com a pegada de caricatura ou de desenho infantil. A Apple Intelligence apresenta cerca de oito opções. Creio que, ao menos neste momento, ela não vá prometer imagens realistas.

Muitos efeitos especiais

Eu pude notar um grande trabalho de design e de experiência de usuário para destacar a presença da inteligência artificial atuando nos conteúdos dos aparelhos. O conceito de “passe de mágica” é levado a cabo, com cores brilhantes que ocupam a tela até que a nova versão do conteúdo é apresentada.

A Siri no iPhone aciona bordas coloridas que indicam a detecção do contexto.

A beleza da IA integrada ao sistema

Apple Intelligence compreende comandos e executa ações em apps (Imagem: Reprodução/Apple)
Apple Intelligence compreende comandos e executa ações em apps (Imagem: Reprodução/Apple)

O principal trunfo da Apple ao chegar agora ao cenário da inteligência artificial generativa tem a ver com a integração com as informações do usuário. O ChatGPT é excelente, mas ele não sabe quais são os seus compromissos do dia, as últimas mensagens de email ou as fotos da sua galeria.

Por sua vez, a Apple Intelligence é executada diretamente no iPhone. Ela tem acesso a todos estes detalhes, o que lhe permite responder à pergunta “Quais são os programas de TV que os meus amigos me recomendaram?” com um resumo disso, em vez de o consumidor pular de conversa em conversa para descobrir os nomes dos programas televisivos.

Dúvida sobre inteligência offline

Tudo que vi relacionado a Apple Intelligente em Cupertino me deixou animado, pois a tendência é de que o usuário tenha mais ferramentas à sua disposição para concluir tarefas de maneira mais rápida.

Talvez a minha maior bronca tenha a ver com o local onde os comandos são executados. A Apple diz que parte dos modelos da Apple Intelligence rodam nos próprios dispositivos. No entanto, caso a ação exija um conhecimento mais aprofundado, pode ser que recorra à nuvem da própria empresa para processamento adicional.

Os jornalistas ali presentes não puderam ver como será o funcionamento da Apple Intelligence caso esteja desplugada da internet. Isto não foi permitido durante a reunião com representantes da marca.

Fotografia de homem agachado, sorrindo para câmera em ambiente externo, com prédio corporativo ao fundo
Apple Park, o campus da Apple em Cupertino (Foto: Thássius Veloso/Tecnoblog)

É o tipo de curiosidade que me assola há dias. Eu gostaria, por exemplo, de saber quais tarefas inteligentes estarão à minha disposição quando estiver viajando, dentro de um avião e sem acesso ao Wi-Fi. Pode parecer um caso isolado, mas milhões de pessoas embarcam em aeronaves todos os dias – e trabalham enquanto estão voando.

A Samsung divulga uma tabela detalhando quais recursos do Galaxy AI funcionam otalmente offline e quais dependem da internet. Seria interessante se a rival Apple fizesse o mesmo.

Thássius Veloso viajou para os Estados Unidos a convite da Apple

Relacionados