Início » Legislação » Como funciona o PhotoDNA, algoritmo da Microsoft para detectar fotos de pornografia infantil

Como funciona o PhotoDNA, algoritmo da Microsoft para detectar fotos de pornografia infantil

Homem que armazenava pornografia infantil no OneDrive foi preso após denúncia da Microsoft

Paulo Higa Por

Não, você não está lendo a mesma notícia de dias atrás. Após o Google denunciar um homem que armazenava pornografia infantil no Gmail, a BBC News mostrou que a Microsoft também está preocupada com a pedofilia. No dia 31 de julho, a polícia da Pensilvânia, nos Estados Unidos, prendeu um sujeito com idade na casa dos 20 anos acusado de ter salvo no OneDrive uma foto de abuso sexual envolvendo uma jovem.

Assim como no caso do Google, a Microsoft usou um algoritmo para verificar automaticamente a existência da foto de pornografia infantil, sem envolver humanos no processo. O PhotoDNA, criado pela Microsoft especialmente para encontrar imagens de exploração sexual infantil, se baseia no conceito de hash, sequência de caracteres obtida a partir de um cálculo sobre o arquivo da imagem.

Funciona assim: a imagem é convertida para preto e branco, depois redimensionada e então dividida em várias células. Cada uma dessas células tem suas cores e gradientes analisados individualmente, gerando o DNA da foto. Caso um arquivo gere um hash já registrado previamente em um banco de dados associado a imagens de teor pedófilo, um alerta é gerado.

A Microsoft fez um infográfico para mostrar como o PhotoDNA funciona

A Microsoft fez um infográfico para mostrar como o PhotoDNA funciona

Apesar de ser um projeto da Microsoft Research em parceria com o Dartmouth College, o PhotoDNA também é usado por outras empresas, incluindo Google, Facebook e Twitter. A tecnologia é integrada ao Sistema de Rastreamento de Exploração Infantil (CETS, na sigla em inglês), que ajuda as autoridades a rastrearem múltiplos suspeitos. No Brasil, houve cooperação com a Polícia Federal para o desenvolvimento do sistema.

No contrato de serviços Microsoft, que você e eu certamente lemos antes de aceitá-lo, a empresa deixa claro que pode usar esse algoritmo: "Em muitos casos, a Microsoft é alertada para violações do Código de Conduta através de reclamações de clientes, mas também implantamos tecnologias automatizadas para detectar pornografia infantil ou comportamento abusivo que possa prejudicar o sistema, nossos clientes ou outras pessoas. Ao investigar essas questões, a Microsoft ou seus agentes analisarão conteúdos para resolver o problema."

Você pode ler mais sobre o PhotoDNA no blog da Microsoft.

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Leonam Cmp
Bom, sei que é uma materia antiga, mas pode acontecer em um futuro proximo
9ou quem sabe ja é agora) da microsoft incluir este programa no windows, assim, vasculhando os pcs por ai e encontrando algo enviando para s autoridades.
Daniel
Interessante, obrigado.
Daniel Silva
Interessante, obrigado.
Taian Carvalho
Acredito que isto seja para reconhecer uma foto mesmo que ela seja redimencionada ou cortada.

Por exemplo:
Você tem uma foto com 3 carros mas você decide corta a foto para aparecer somente 2 carros. Se o dna fosse da imagem completa ele talvez não reconhecesse a foto pois é um padrão diferente, mas se ele criar diversos dna de partes menores ele provavelmente reconhecerá a foto.
ϺΛΠΘΣΙ ΛΠΓΘΠΥΘ
Eu tenho um pequeno testemunho pra contar sobre este caso:num passado muito distante, época quando serviço de armazenamento ainda se chamava Windows Live Skydrive, eu guardava umas fotos pessoais minhas, dentre elas uma do meu sobrinho quando era bebê e ele estava pelado na foto. Foi quando recebi este email da MS me avisando que eles "tinham encontrado uma imagem envolvendo criança nu" (na 1ª linha do email)Pior foi a "ameaça", por assim dizer: "remova esta imagem em 48 horas, caso contrário, nós seremos forçados a fechar sua conta no Skydrive, assim como qualquer outra conta existente".Claro que eu segui os procedimentos, e DELETEI a imagem, embora a imagem não fosse ofensiva, muito menos pornográfica. Era só meu sobrinho com seu pintinho de fora. Kkkk
Manoel Antônio A. C.
Eu tenho um pequeno testemunho pra contar sobre este caso:
num passado muito distante, época quando serviço de armazenamento ainda se chamava Windows Live Skydrive, eu guardava umas fotos pessoais minhas, dentre elas uma do meu sobrinho quando era bebê e ele estava pelado na foto. Foi quando recebi este email da MS me avisando que eles "tinham encontrado uma imagem envolvendo criança nu" (na 1ª linha do email)
Pior foi a "ameaça", por assim dizer: "remova esta imagem em 48 horas, caso contrário, nós seremos forçados a fechar sua conta no Skydrive, assim como qualquer outra conta existente".
Claro que eu segui os procedimentos, e DELETEI a imagem, embora a imagem não fosse ofensiva, muito menos pornográfica. Era só meu sobrinho com seu pintinho de fora. Kkkk
Daniel
Eles geram um hash do arquivo de imagem com o conteúdo proibido e fazem uma busca no servidor por outros arquivos que gerem o mesmo hash. Só não entendi muito bem o motivo de dividir a foto e utilizar estes pedaços para encontrar outros conteúdos semelhantes.
Sergio Fagundes
Existem pessoas no FBI/Interpol que participam de grupos de interesse na deepweb, trocam imagens com outros pedófilos e acabam obtendo mais imagens que vão ser gerados hashs e com isso num golpe de sorte conseguirem localizar a verdadeira fonte dos arquivos (como por exemplo um descuido do pedófilo esquecendo uma foto em um disco virtual onde tem o mesmo fundo que suas fotos proibidas).
Raphael Rios Chaia
Excelente artigo. Adiciona uma série de informações relevantes para quem ainda acredita que o Google fica bisbilhotando seus emails e violando intimidade alheia. O processo, sendo automatizado, faz a "peneira" de quem deverá ter eventualmente o sigilo quebrado pela autoridade judicial ou não.
Paulo Higa
Eu não tenho detalhes, mas lembro que o Google contrata funcionários temporários que analisam fotos com conteúdo sensível, incluindo pornografia infantil: http://tecnoblog.net/111038/google-funcionario-pior-internet/
Renato Oliveira
Acho que é exatamente isso. Isso levanta a pergunta de como fotos são adicionadas à lista, mas acho que a resposta mais óbvia é que quando prendem um fulano desses, devem dar uma bisbilhotada nos devices dele, e se encontrarem mais fotos que não estão na lista, eles adicionam lá.
Wellington Marques
Se eu entendi direito, esse algoritmo detecta fotos que já foram "marcadas" como pedofilia. Ou seja, ele não detecta uma foto inédita com conteúdo ilegal, é isso?
Eliézer José Lonczynski
Genial, acho uma boa notícia saber que os conteúdos na nuvem tem um certo nível de auditoria.