Início » Aplicativos e Software » WhatsApp se recusa a usar solução da Apple que vasculha fotos no iPhone

WhatsApp se recusa a usar solução da Apple que vasculha fotos no iPhone

CEO do WhatsApp criticou adoção pela Apple de leitor de arquivos no iCloud que identifica imagens de abuso sexual infantil, alegando violação de privacidade

Pedro Knoth Por

O chefe executivo do WhatsApp, Will Cathcart, foi ao Twitter criticar a ferramenta desenvolvida pela Apple para vasculhar fotos no iPhone e encontrar arquivos relacionados ao abuso sexual infantil — o que a empresa nomeia como CSAM. Em uma série de postagens, Cathcart avalia que a medida da empresa para escanear todas as fotos em busca desse tipo de conteúdo é “repleta de problemas”.

WhatsApp

CEO do WhatsApp diz que mensageiro não vai adotar leitor da Apple (Imagem: Jeso Carneiro; Flickr)

Em sua primeira publicação, Will Cathcart já vai direto ao ponto: “pessoas perguntaram se nós do WhatsApp vamos adotar esse sistema. A resposta é não”. A rede social é conhecida por colocar privacidade em primeiro lugar, inclusive porque o segredo de sua fórmula bem-sucedida é a chamada criptografia de ponta a ponta.

Apesar de ressaltar que materiais CSAM devem ser combatidos, o executivo acredita que a abordagem da Apple de criar um leitor de arquivos para identificar conteúdo ilegal é “preocupante”.

Apple diz que leitor no iCloud mantém privacidade

Mas a fabricante do iPhone afirma que o processo é seguro e preserva a identidade privada de seus clientes. A Apple ainda garante que o leitor não armazena informações de arquivos comuns; e as chances dele sinalizar material incorretamente são de “1 em 1 trilhão” segundo a companhia.

O scanner para combater CSAM funciona da seguinte maneira: a imagem é lida pelo sistema com base em um banco de códigos fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA, antes dela ser armazenada no iCloud. O leitor procura pelo código da imagem e o compara com a base de dados para verificar se o arquivo contém o hash comum com conteúdos relacionados ao abuso infantil — a criptografia dele é mantida durante o processo.

Caso haja um match com a base de dados, o leitor codifica o resultado positivo. A Apple afirma que não pode ter acesso a esse resultado até que o usuário do iCloud ultrapasse um limite — que a empresa não definiu ao público — de ocorrências.

Leitor pode ser usado por governos, diz CEO do WhatsApp

Carthcart afirma que, por ser um sistema da Apple, o leitor de arquivos teria de se ajustar conforme a legislação de cada país em que for implementado:

“Esse é um sistema de vigilância operacional que poderia facilmente ser usado para escanear conteúdo privado para detectar qualquer coisa que eles mesmos ou um governo quiser controlar. Países onde iPhones são vendidos terão definições diferentes do que é aceitável.”

O executivo do WhatsApp cita a China como exemplo de uma possível adequação indevida do scan feito pela Apple. Outra questão levantada por Cathcart é a vulnerabilidade do sistema: recentemente, backdoors em apps do iPhone, como o Fotos e o iMessage, foram exploradas pelo spyware Pegasus, usado para monitorar o celular de jornalistas, ativistas e até chefes de estado.

Will Cathcart, head do WhatsApp (Imagem: Divulgação/Facebook)

Will Cathcart, head do WhatsApp (Imagem: Divulgação/Facebook)

Especialista em cibersegurança aponta uso para “golpes”

Já o professor de cibersegurança na Universidade Johns Hopkins, Matthew Green, apontou no Twitter que o padrão de leitura do scan não pode ser checado pelo consumidor da Apple. Ou seja, ninguém além da própria empresa sabe como as imagens estão sendo lidas e qual a base para ler arquivos.

Além disso, o especialista aponta que o hash comum aos conteúdos CSAM podem ser usados para banir outra pessoa por engano. Por exemplo, ao usar uma foto de um político, o código pode ser incluído para banir quem a recebe.

“Imagine se alguém te envia uma imagem sobre política inofensiva e que você compartilha essa imagem com um amigo? Mas e se aquela imagem tiver um hash igual a de um arquivo conhecido de pornografia infantil?” – @matthew_d_green

Por fim, o CEO do WhatsApp ressalta que a Apple deveria proteger os usuários de backdoors que poderiam ser explorados pelo governo. Ele parafraseou um post feito pela companhia em seu blog oficial em 2016, onde ela afirma que não vai ceder à pressão de governos para usar apps do iPhone. “Essas palavras foram sábias no momento e merecem ser consideradas agora”, diz Will Cathcart.

Com informações: Mashable

Comentários da Comunidade

Participe da discussão
6 usuários participando

Os mais notáveis

Comentários com a maior pontuação

Juliano Machado Olivetti (@Juliano_Machado_Oliv)

Me admira muito ainda quem tenta justificar que o debate deve ser a questão do abuso infantil…Meus caros, com uma medida tão drástica e com potencial de vigilância total, acaba sendo a última coisa a ser levada a debate!! E em portais nos EUA as críticas tem sido duríssimas, literalmente colocando a empresa sobre as cordas! Esse assunto em especifico até merecia ser tema do Tecnocast.

Filipe Espósito (@filipeesposito)

Alguns detalhes que vale ressaltar sobre esse sistema de CSAM:

A análise principal é feita 100% offline no próprio dispositivo Somente as fotos salvas no app Fotos da Apple serão analisadas. O processo não envolve qualquer outro app da Apple ou de terceiros (a Apple disse hoje para a imprensa que considera lançar uma API no futuro, mas ainda não há nada concreto) Quando o CSAM reporta a quantidade necessária de fotos para de fato acionar a Apple (a quantidade ainda é desconhecida), a empresa recebe apenas uma cópia em baixa resolução sem metadados das fotos denunciadas apenas para confirmar se a imagem bate com aquela do banco de dados Nos EUA, o banco de dados virá exclusivamente do NCMEC. A Apple disse que não permitirá a adição de conteúdos não-CSAM a essa verificação

Claro que, por enquanto, ainda é tudo muito vago já que fica só no que a Apple diz publicamente. Provavelmente quando o sistema estiver disponível de fato vamos saber mais sobre como o CSAM funciona através dos códigos do sistema e etc.

E sobre o WhatsApp, provavelmente só querem mídia gratuita mesmo. Nesse momento, o recurso não tem relação alguma com apps de terceiros.