Meio Bit » Robótica e IA » Taylor Swift ameaça processar Microsoft por causa de IA racista

Taylor Swift ameaça processar Microsoft por causa de IA racista

Taylor Swift ameaça processar Microsoft e por um bom motivo: Um bot extremamente racista criado pela empresa se chamava Tay, apelido carinhoso usado pelos fãs da cantora.

4 anos e meio atrás

A questão chega a ser filosófica. É a Microsoft ou a Taylor Swift, qual das duas dá menos sorte? As duas têm histórias complicadas, mas desta vez foram quase às vias de fato por causa de... um bot.

A briga entre celebridades e empresas de tecnologia não é nenhuma novidade. No longínquo começo da década de 1990 a Apple estava desenvolvendo o PowerMac 7100. O codinome interno do projeto era "Carl Sagan", uma homenagem legal, diga-se de passagem.

Isso foi relevado em uma matéria da Computer World, e quando Sagan soube, subiu nas tamancas, achou que isso induziria as pessoas a acharem que ele estava endossando ou recomendando o computador. Ele soltou os advogados em cima da Apple, e publicou uma carta na Computer World, explicando o caso.

A empresa ficou meio magoada mas mudou o nome do projeto. Os engenheiros passaram a chamar o bicho de BHA, sigla de ButtHead Astronomer, algo como "astrônomo bundão". Carl Sagan não gostou e meteu um processo em cima da Apple.

O Juiz não levou a sério, explicou que não poderia levar adiante um caso de calúnia pois nenhuma crítica séria a um cientista usaria o termo "ButtHead", e Sagan perdeu a causa. Ele então entrou com outro processo, por causa do uso do nome dele como codinome do projeto. Perdeu de novo, mas entrou com uma apelação.

A Apple então preferiu um acordo entra-judicial, que provavelmente envolveu dinheiro, e também um pedido de desculpas público. Os engenheiros então mudaram o nome do projeto para LAW, de Lawyers Are Wimps, ou "advogados são cagões".

Outro caso famoso foi o da Lindsay Lohan, que cismou que uma personagem que aparece em uma das missões do GTA V é baseada na pessoa dela.

Sendo brutalmente honesto, é. Só que pra azar de Miss Lohan ela é uma loira genérica bagaceira, e a personagem é basicamente a mesma coisa, então as duas são intercambiáveis, e o tribunal decidiu que a fabricante do jogo não usou indevidamente a imagem da "atriz".

Já nossa querida Tay-Tay, poxa, ninguém dá um refresco. Em 2013 uma desocupada resolveu usar fotos da Taylor Swift com citações de Hitler, Stalin, Osama e similares. Criou um board no Pinterest e as fãs da cantora começaram a repassar ensandecidamente as palavras de sabedoria da esclarecida loura.

Essa é do Stalin

Os assessores da moça passaram um bom tempo tentando limpar as interwebs das contas espalhando os tais posts motivacionais.

Agora Brad Smith, Presidente da Microsoft, conta em seu livro Tools and Weapons um causo bem divertido: Em 2014 a Microsoft a Microsoft lançou o XiaoIce, um chatbot usando inteligência artificial capaz de conversas prolongadas, muito mais complexas do que qualquer coisa que Siri ou Cortana são capazes.

Dá pra usar o bot para agendar compromissos, fazer compras, um monte de atividades, mas a maioria dos 660 milhões de usuários registrados na China usam o XiaoIce para... conversar.

Um belo dia em 2016 a Microsoft resolveu lançar o bot nos Estados Unidos, com o nome de... Tay. O bot usava o Twitter como interface, e deveria aprender com as conversas, moldando sua "mente" de acordo com as mensagens que trocava com os usuários.

Em menos de 24 horas Tay havia se tornado um poço de racismo, discurso de ódio, negacionista do Holocausto, pacote completo.

A Microsoft diz que Tay sofreu um ataque coordenado de trolls, mas no final Tay foi tirada rapidamente do ar, mas não rápido o suficiente para evitar que Smith recebesse uma carta de um escritório de advocacia, explicando que o nome "Tay" era fortemente associado ao de Taylor Swift, a cliente deles,e que o bot criava uma associação com a cantora que poderia confundir os fãs, pipipi popopó.

A alegação em si é ridícula, mas é até compreensível, depois de penar pra não ser garota-propaganda de frases de autoajuda de fascistas sanguinários, a pobre Tay-Tay não queria ser associada com as barbaridades que a Tay estava tuitando:

Vendo que era uma briga sem-sentido, e Tay já estava desligada de qualquer jeito, Smith não comprou a briga, informou que o nome foi mudado. Tempos depois lançaram uma versão revisada e aprimorada de Tay, agora chamada Zo.

Zo imediatamente começou a chamar Windows de Spyware, falar mal de muçulmanos e sugerir aos usuários desinstalar Windows 10 e voltar pro 7.

No começo de 2019 Zo foi discretamente desligado em todas as plataformas onde era acessível.

 

Leia mais sobre: , , , .

relacionados


Comentários