Meio Bit » Arquivo » Internet » Como corromper um chatbot: deixe o Twitter como babá

Como corromper um chatbot: deixe o Twitter como babá

Microsoft tira do ar Tay, um chatbot projetado para ficar mais inteligente quanto mais conversasse após aprender comentários racistas com o Twitter

8 anos atrás

picard-nice-things-001

A internet é implacável. Criem uma coisa, qualquer coisa minimamente interessante e legal, joguem na mão do público e a turma da zoeira sem limites encontrará um jeito de quebrar. Sem exceções.

Embora alguns banquem os espertinhos (aqui e aqui) a imensa maioria só quer ver o mundo queimar, dizia o Alfred. Vide o que aconteceu com a Microsoft: nes semana ela introduziu a Tay, um chatbot com algoritmos de aprendizado de máquina que era projeta para um fim: aprender e aumentar seu vocabulário conforme se comunica.

Já imaginou onde vamos chegar, né?

microsoft-tay-ai

A proposta da Microsoft era simples: a Tay seria um bot voltado para conversações entre adolescentes e jovens adultos, mirando na faixa etária de 18 a 24 anos. O experimento, embora vendido como uma IA não era mais do que outro chatbot, só que desta vez capaz de aprender. Ela se passaria por uma pós adolescente e escreveria como tal na internet, para que a Microsoft observasse e e aprendesse mais sobre linguagem coloquial e como aplicá-la em softwares de inteligência artificial mais sérios. Tudo para criar uma experiência mais realista.

https://twitter.com/TayandYou/status/712613527782076417?ref_src=twsrc%5Etfw

A Tay conversava com usuários do Twitter, Line e outros serviços e quanto mais diálogo mantinha mais coisas ela aprendia. Bom, com a internet sendo o que é não demorou nada para que usuários começassem a direcionar comentários racistas, homofóbicos, misóginos e todo tipo de impropérios na direção do bot, que como uma esponjinha absorvia tudo e incorporava.

A Microsoft, ingênua que só não teve o mínimo cuidado de deslocar uma curadoria para aprovar os tweets, e deixou a coisa correr solta. Resultado:

Adicionando insulto à injúria, os trolls acabaram fazendo da Tay uma defensora do mala sem alça Donald Trump:

tay-mexico

Quando a Microsoft acordou já era tarde, Tay já tinha disparado todo tipo de tweets duvidosos em quase 24 horas de operação. Não tendo como reverter a situação os desenvolvedores desligaram o bot e deletaram todas as coisas duvidosas que ela tuitou. Não há previsão de quando (ou se) a Tay voltará ao ar.

https://twitter.com/TayandYou/status/712856578567839745?ref_src=twsrc%5Etfw

Tay virou piada mas há questões a considerar aqui. Como desenvolver uma IA capaz de aprender conosco e evitar que ela incorpore o que de pior existe em todos nós? É possível fazer tal coisa? Ela não se tornaria um humano tão fiel a nós, tendo nossas qualidades e nossos defeitos? O que a impediria de evoluir a um ponto não planejado?

Lembro que Frank Miller uma vez brincou com isso no crossover Robocop vs. Terminator: na história (que não é canon) a Skynet só adquire consciência quando se conecta ao cérebro de Alex Murphy; ela só foi capaz de destruir o mundo ao aprender self-awareness com o Robocop, uma aberração mais máquina do que homem que pensa ainda ser um humano.

22

Tudo isso são questões para um futuro ainda distante, mas desde já vemos que criar uma IA projetada para aprender com outros humanos totalmente bem comportada pode ser praticamente impossível, pois sempre existirão os trolls.

Fonte: The Guardian.

relacionados


Comentários