Dois anos e meio é tempo suficiente para corrigir uma falha em um algoritmo de inteligência artificial? No caso de um problema específico do Google Fotos, não: em 2015, um desenvolvedor descobriu que o mecanismo de classificação automática do serviço estava etiquetando imagens de pessoas negras como “gorillas”. Para resolver o problema, o Google decidiu simplesmente bloquear essa e outras palavras potencialmente racistas.

Google Fotos

Por trabalhar com software, Jacky Alciné percebeu logo que descobriu o problema que havia uma falha no algoritmo, não uma ação intencional do Google em prol do racismo. Porém, o desenvolvedor questionou que tipos de imagens o sistema do serviço estaria usando como parâmetros de comparação. Para ele, uma classificação mais precisa e completa de pessoas negras deixaria o algoritmo mais bem treinado para não cometer esse tipo de erro.

O Google rapidamente pediu desculpas e prometeu investigar o problema, chegando a pedir autorização a Alciné para acessar a sua conta para obter mais detalhes. Mas, aparentemente, nenhuma solução foi desenvolvida desde então.

A descoberta foi feita pela Wired, que testou mais de 40 mil imagens no Google Fotos. O serviço classificou corretamente diversos tipos de animais, até alguns supostamente mais trabalhosos, como pandas e poodles. Em compensação, buscas (em inglês) por chipanzé, gorila e macaco não trouxeram resultados.

Qual a explicação para isso se buscas sobre primatas como orangotango e babuíno funcionaram perfeitamente? A Wired logo presumiu que o Google simplesmente baniu por tempo indeterminado palavras que podem ocasionar problemas de cunho racial.

Google Fotos sem "gorilla". Imagem: Wired.

Surpreendentemente, o Google reconheceu o bloqueio. As categorias haviam sido barradas assim que Alciné reportou o problema e estão assim até hoje. Um represente da companhia explicou à Wired que a “tecnologia de reconhecimento de imagens ainda é nova e, infelizmente, está longe de ser perfeita”.

Fica a dúvida: o Google não conseguiu solucionar o problema ou simplesmente deixou-o para depois? Pode ser uma mistura dos dois. Especialistas em inteligência artificial reconhecem que a tecnologia está longe de ter a capacidade de abstração e análise contextual dos humanos. Nesse sentido, o caminho mais fácil (o bloqueio de categorias) parece mesmo ser o mais seguro.

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Débora Matias
Rsrsrs
Hilton Silva
Então vamos proibir 'um hétero branco' de tirar sarro de alguma coisa, que tal?
TunAV
Melhor voltar pro trabalho, a pia tá cheia amigo.
Matheus Gonçalves
Então vai dormir! Hahahahaha
Lucas Corrêa
Matheus eu nunca tinha encontrado definição tão perfeita quanto essa da mola, sério, faz completo sentido e e ainda é muito didático.
TunAV
Que sono dos seus comentários, SJW.
José Vieira
Fico imaginando essa gente crescendo nos "terríveis" anos 80... rs... O horror nos seus rostinhos vitimistas tendo (sim, eles acham que têm a obrigação) de assistir aos "Trapalhões", de ter que ver um Chico Anysio estereotipado na figura de um "pai de santo negro, gay e cabelos alisados"; ou ainda na pele de um canalha como sua personagem "Nazareno"... De ver um Jô Soares encarnando um "Capitão Gay", ou um dentista que assediava suas clientes, beldades da programação da Globo. Ver mulheres excepcionalmente talentosas vivendo na TV, em horário nobre, a encarnação da Linda e Burra. O debate que tentam levantar (posando de vítima e fazendo mimimi em redes sociais) é mais velho que andar pra frente, a diferença, por óbvio, é incapacidade dos WSJ de expressar seus pontos de vista com alguma inteligência. TV Pirata é a prova disso: https://www.youtube.com/watch?v=aF3aPUeaAkY "Os idiotas vão tomar conta do mundo; não pela capacidade, mas pela quantidade. Eles são muitos." (Nelson Rodrigues).
Trodat 4924
ainda é muito mais forte que os humanos
Trodat 4924
tecnicamente ele não é caucasiano vulgo branco, e também não interessa a opção sexual do individuo.
A coisa
Ser comparado com um gorila é um orgulho. Feio seria ser comparado com um humano. Pelo menos nenhum gorila já me fez algum mal.
Daniel R. Pinheiro
Ele é branco, com ascendência mesclada (negros, índios, brancos, pardos, etc). Nem discussão isso é. Não se discute o óbvio. Só pra lembrar: quando dizemos que alguém é branco, nos referimos à cor da pele, não à mistura de etnias nos genes. Eu sou branco e já fui chamado até de "leite nim" (e achava até graça).
Daniel R. Pinheiro
E o que é que tem a ver "hétero branco"? Na minha roda de amigos todo mundo zoa todo mundo (e olhe que são dos mais variados tipos). Quem não gosta, que se afaste. Se fôssemos nos sentir ofendido (pegar ar) por qualquer coisa, ninguém mais poderia abrir a boca pra nada (nem mesmo pro nome no diminutivo pela própria mãe). Só a título de informação: já fui chamado de Chucky (e variantes como "boneco de vudoo", "boneco do cão", etc) no colégio. [ironic mod on] Hoje to depressivo pra caramba. [ironic mod off].
Virtual Net Sistemas de Segura
E cara me desculpe mas você não e branco veja seus traços de negro boca nariz cabelo você faz parte da maioria brasileira que e mestiça ou seja brasileiro não pode se julgar de uma tal raça somos um país de miscigenados.
Gaius Baltar
Isso está ocorrendo no caso dos assédios em Hollywood. A coisa ficou tão represada durante tanto tempo que junto com os casos escabrosos estão vindo outros claramente exagerados. Mas como você falou, faz parte do processo.
Gaius Baltar
Sei muito pouco de IA, mas o que soube através de um amigo que trabalha na curadoria do Watson é que a IA busca padrões próximos de uma maneira “burra” e precisa ser refinada por curadores humanos para que saiba distinguir um padrão do outro. Faltou ao Google essa supervisão mais acurada.
Exibir mais comentários