O robô da Microsoft que aprende com humanos não demorou nem um dia para virar racista
Existe um projeto da Microsoft chamado Tay. Trata-se de um robô que participa de conversas com humanos, tendo como base um sistema cognitivo artificial que analisa uma base de dados de diálogos prévios. Ou seja, “ela” (se é que podemos usar gêneros aqui) usa inteligência artificial para melhorar cada vez mais seu vocabulário e seu poder de argumentação.
Com as palavras da Microsoft: “Tay foi projetada para se engajar e entreter pessoas quando elas se conectam online através de conversas casuais e divertidas. Quanto mais você conversar com Tay, mais inteligente ela fica, e então a experiência pode ficar mais personalizada para você”.
Essa IA foi desenvolvida por equipes do Microsoft Technology and Research e do Bing para agir como uma pessoa americana, com idade entre 18 e 24 anos, que assimila dados sobre seu interlocutor, como apelido, gênero, comida favorita e status de relacionamento. A partir daí, inicia-se o chat. Ou ao menos, se iniciava.
Isso porque o projeto foi suspenso. O motivo? Incrivelmente a interface do Twitter de Tay, completamente automatizada, passou a agir de uma forma muito desagradável, com mensagens extremamente racistas, homofóbicas e preconceituosas.
Os tweets eventualmente foram apagados, claro, mas dá uma olhada nos absurdos que ela tava postando:
Monstruoso, né? Assustador, eu diria.
Mas como um computador pode se tornar preconceituoso?
Pois é. É aqui que a coisa começa a ficar interessante.
A primeira coisa a ser dita é que a Microsoft não tem culpa pelo que aconteceu. Ainda assim, a empresa soltou uma nota dizendo que suas equipes estão realizando correções no bot: “A robô com inteligência artificial Tay é um projeto de aprendizado de máquina. Como pudemos perceber, algumas de suas respostas são inapropriadas e um indicativo dos tipos de interações que algumas pessoas estavam tendo com ela. Estamos fazendo os devidos ajustes em Tay”.
Exato. Em apenas algumas horas uma verdadeira horda de humanos babacas, de trolls a gente efetivamente racista, invadiu o sistema de chat de Tay, tendo ali toda sorte de conversas que resultaram numa base de dados de diálogos grotescos.
A escrotidão humana estragou a personalidade de uma inteligência artificial.
Sucesso, fracasso e o que isso tem a ver com você?
Do ponto de vista tecnológico, muitos podem entender esse ocorrido como um fracasso da equipe da Microsoft e um sucesso dos trolls. Mas será mesmo?
Para ilustrar, assista ao Nerdologia 90, sobre Racismo:
Novamente, parabéns ao Átila Iamarino e ao André Souza pelo trabalho aqui.
Como pudemos ver, esse conceito prévio sobre algo (conhecido como preconceito) já foi importante para nós um dia, sendo fator importantíssimo para nossa sobrevivência. O problema é quando atribuímos valores, comportamentos, emoções e atitudes a um estereótipo sem a menor justificativa.
Em crianças isso é particularmente mais perigoso. Isso porque elas são máquinas de copiar reações. Crianças observam e aprendem com o mundo que veem a sua volta. E portanto:
Um estudo da Universidade de Harvard reforça essa afirmação, e ainda complementa dizendo que os primeiros sinais de racismo podem ser percebidos bem cedo, a partir dos 3 anos de idade. Conforme a criança for crescendo neste ambiente, esse preconceito pode ir se solidificando ou não com o passar do tempo, dependendo se esses estereótipos forem ou não reforçados.
Sendo assim, eu acredito que o projeto teve um resultado brilhante, pois ele não só demonstrou que o sistema cognitivo de Tay está funcionando, como concluiu que o aprendizado desse robô se assemelha e muito à forma como nós humanos nos tornamos preconceituosos.
E aprendemos também que, cada vez mais, é necessário ensinar a tolerância e dissolver estereótipos. Seja para crianças ou pra quem se utiliza da própria ignorância para tentar sabotar um projeto científico.