Apple adia recurso que examina fotos no iPhone para combater abuso infantil

Apple decidiu adiar implementação de recurso do iOS 15 que busca por sinais de abuso infantil após feedbacks de clientes e especialistas

Ana Marques
• Atualizado há 2 anos e 10 meses
iPhone 12 Pro (Imagem: Paulo Higa/Tecnoblog)

Após diversas críticas à sua proposta de examinar fotos no iPhone em busca de indícios de abuso infantil, a Apple decidiu adiar a implementação do recurso. A informação foi revelada em um comunicado ao 9to5Mac, no qual a gigante de Cupertino afirma que vai “reservar um tempo adicional” para fazer melhorias na ferramenta.

Em agosto, o vice-presidente sênior de Engenharia de Software da Apple, Craig Federighi, admitiu que a comunicação feita pela empresa poderia ter sido mais clara a respeito do que a função de escaneamento de Material de Abuso Infantil (“CSAM”, na sigla em inglês) representaria para a privacidade dos usuários, na prática.

A função era esperada para estrear ainda este ano no iOS 15, que deve chegar em sua forma estável a todos os usuários este mês, com o lançamento do iPhone 13.

No entanto, agora a chegada do recurso deve “levar mais alguns meses”. Isso se a empresa não decidir abortar a missão, o que poderia abafar mais uma polêmica em meio a investigações sobre quebra de privacidade que a Apple vem enfrentando.

Segundo a companhia, o adiamento teve como base o feedback de clientes e grupos que defendem direitos sociais — ainda não se sabe, no entanto, quais ajustes a big tech pretende fazer à ferramenta.

Análise de CSAM despertou alerta em especialistas

Anunciado no último mês, o sistema da Apple pretendia analisar imagens marcadas para irem para o backup ainda nos dispositivos dos usuários, antes de serem armazenada no iCloud. A ferramenta seria capaz de procurar padrões e compará-los em um banco de dados de CSAM conhecido.

Apesar de prometer manter a privacidade dos usuários, e informar que todo o processo seria coberto por criptografia, o recurso levantou preocupações de especialistas por potenciais problemas, como uso indevido por governos, ataques direcionados a indivíduos ou grupo de pessoas e falsos positivos, entre outros.

Além de analisar fotos no iPhone, a companhia também disse que vai implementar recursos de segurança infantil no app Mensagens, e revelou que já realiza o escaneamento de e-mails no iCloud, verificando anexos de mensagens enviadas e recebidas desde 2019.

Com informações: 9to5Mac

Relacionados

Escrito por

Ana Marques

Ana Marques

Gerente de Conteúdo

Ana Marques é jornalista e cobre o universo de eletrônicos de consumo desde 2016. Já participou de eventos nacionais e internacionais da indústria de tecnologia a convite de empresas como Samsung, Motorola, LG e Xiaomi. Analisou celulares, tablets, fones de ouvido, notebooks e wearables, entre outros dispositivos. Ana entrou no Tecnoblog em 2020, como repórter, foi editora-assistente de Notícias e, em 2022, passou a integrar o time de estratégia do site, como Gerente de Conteúdo. Escreveu a coluna "Vida Digital" no site da revista Seleções (Reader's Digest). Trabalhou no TechTudo e no hub de conteúdo do Zoom/Buscapé.