Google Fotos

Dois anos e meio é tempo suficiente para corrigir uma falha em um algoritmo de inteligência artificial? No caso de um problema específico do Google Fotos, não: em 2015, um desenvolvedor descobriu que o mecanismo de classificação automática do serviço estava etiquetando imagens de pessoas negras como “gorillas”. Para resolver o problema, o Google decidiu simplesmente bloquear essa e outras palavras potencialmente racistas.

Por trabalhar com software, Jacky Alciné percebeu logo que descobriu o problema que havia uma falha no algoritmo, não uma ação intencional do Google em prol do racismo. Porém, o desenvolvedor questionou que tipos de imagens o sistema do serviço estaria usando como parâmetros de comparação. Para ele, uma classificação mais precisa e completa de pessoas negras deixaria o algoritmo mais bem treinado para não cometer esse tipo de erro.

O Google rapidamente pediu desculpas e prometeu investigar o problema, chegando a pedir autorização a Alciné para acessar a sua conta para obter mais detalhes. Mas, aparentemente, nenhuma solução foi desenvolvida desde então.

Google Photos, y’all fucked up. My friend’s not a gorilla. pic.twitter.com/SMkMCsNVX4

— Jacky Alciné (@jackyalcine) June 29, 2015

A descoberta foi feita pela Wired, que testou mais de 40 mil imagens no Google Fotos. O serviço classificou corretamente diversos tipos de animais, até alguns supostamente mais trabalhosos, como pandas e poodles. Em compensação, buscas (em inglês) por chipanzé, gorila e macaco não trouxeram resultados.

Qual a explicação para isso se buscas sobre primatas como orangotango e babuíno funcionaram perfeitamente? A Wired logo presumiu que o Google simplesmente baniu por tempo indeterminado palavras que podem ocasionar problemas de cunho racial.

Google Fotos sem "gorilla". Imagem: Wired.

Surpreendentemente, o Google reconheceu o bloqueio. As categorias haviam sido barradas assim que Alciné reportou o problema e estão assim até hoje. Um represente da companhia explicou à Wired que a “tecnologia de reconhecimento de imagens ainda é nova e, infelizmente, está longe de ser perfeita”.

Fica a dúvida: o Google não conseguiu solucionar o problema ou simplesmente deixou-o para depois? Pode ser uma mistura dos dois. Especialistas em inteligência artificial reconhecem que a tecnologia está longe de ter a capacidade de abstração e análise contextual dos humanos. Nesse sentido, o caminho mais fácil (o bloqueio de categorias) parece mesmo ser o mais seguro.

Receba mais notícias do Tecnoblog na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Emerson Alecrim

Emerson Alecrim

Repórter

Emerson Alecrim cobre tecnologia desde 2001 e entrou para o Tecnoblog em 2013, se especializando na cobertura de temas como hardware, sistemas operacionais e negócios. Formado em ciência da computação, seguiu carreira em comunicação, sempre mantendo a tecnologia como base. Em 2022, foi reconhecido no Prêmio ESET de Segurança em Informação. Em 2023, foi reconhecido no Prêmio Especialistas, em eletroeletrônicos. Participa do Tecnocast, já passou pelo TechTudo e mantém o site Infowester.

Canal Exclusivo

Relacionados