iOS 13 beta tem função que “corrige” desvio de olhar no FaceTime
Em teste, função do FaceTime simula "olho no olho" quando usuário não estiver olhando para a câmera
Em teste, função do FaceTime simula "olho no olho" quando usuário não estiver olhando para a câmera
O contato olho a olho é importantíssimo para os humanos. Talvez seja por isso que a Apple introduziu um recurso curioso na última versão beta do iOS 13: uma função que usa realidade aumentada para “corrigir” o olhar de participantes de uma conversa no FaceTime.
A premissa básica do FaceTime e outras ferramentas de videoconferência é permitir que você se comunique com outra pessoa como se estivesse de frente à ela. O problema é que, nesse tipo de comunicação virtual, é comum que uma das partes olhe para a tela do celular em vez de fixar os olhos na câmera.
Eis o efeito: muitas vezes, parece que a pessoa não está olhando para você. Chega a ser paradoxal, afinal, ela está vendo o seu rosto no celular dela. Seja como for, a Apple decidiu remediar esse “desvio de atenção” não intencional.
Chamado de FaceTime Attention Correction, o recurso usa o ARKit 3 (versão mais recente da plataforma de realidade aumentada da Apple) para identificar as pupilas do usuário e, em tempo real, reposicionar o olhar na tela de modo a fazer a pessoa do outro lado ter impressão de estar em uma conversa olho a olho o tempo todo.
Guys – “FaceTime Attention Correction” in iOS 13 beta 3 is wild.
Here are some comparison photos featuring @flyosity: https://t.co/HxHhVONsi1 pic.twitter.com/jKK41L5ucI
— Will Sigmon (@WSig) July 2, 2019
Basicamente, o ARKit 3 determina a posição do rosto usando um mapa de profundidade e, em seguida, reposiciona virtualmente as íris usando aprendizagem de máquina.
A novidade funciona bem, mas não está livre de inconsistências (ainda não) — é por isso, talvez, que a função vem desativada por padrão. Mike Rundle e Dave Schukin, dois desenvolvedores que estão testando a funcionalidade, observam que ela pode falhar, ainda que levemente, caso um objeto seja movido em frente aos olhos, como mostra este tweet:
How iOS 13 FaceTime Attention Correction works: it simply uses ARKit to grab a depth map/position of your face, and adjusts the eyes accordingly.
Notice the warping of the line across both the eyes and nose. pic.twitter.com/U7PMa4oNGN
— Dave Schukin 🤘 (@schukin) 3 de julho de 2019
De qualquer forma, o FaceTime Attention Correction já pode ser testado por quem tiver baixado a última versão beta do iOS 13 ou do iPadOS 13. O recurso só é compatível com aparelhos equipados com chip A12 Bionic ou A12X Bionic, como o iPhone XR, o iPhone XS e a linha iPad Pro.
Com informações: VentureBeat.
Leia | Como usar o iPhone como Lupa