Notícias Negócios

Engenheiro que alegou que IA era senciente não trabalha mais no Google

Blake Lemoine afirmou que LaMDA expressou emoções, opiniões e sentimentos próprios; Google desejou "boa sorte" ao engenheiro

Bruno Gall De Blasi
Por

As melhores ofertas,
sem rabo preso

Blake Lemoine se tornou uma figura emblemática nas últimas semanas. Em junho, o engenheiro afirmou que o LaMDA, uma inteligência artificial do Google, se tornou senciente ao expressar emoções, opiniões e sentimentos próprios. Mas, quase dois meses após o episódio, o engenheiro deixou de trabalhar para a companhia.

Google (Imagem: Pawel Czerwinski/Unsplash)
Google (Imagem: Pawel Czerwinski/Unsplash)

O caso foi reportado pela newsletter Big Technology, nesta sexta-feira (22). Segundo o jornalista Alex Kantrowitz, o “Google demitiu Blake Lemoine”. A informação foi repassada ao periódico pelo próprio engenheiro durante a gravação do podcast da publicação, apenas algumas horas depois de ser informado sobre o desligamento.

Lemoine não chegou a citar o caso no seu perfil do Twitter. Na verdade, há apenas um tweet feito no sábado (23) com um link para a publicação “Posso ser demitido em breve por fazer trabalho de ética em IA” no seu Medium. “Apenas para o caso de as pessoas se esquecerem que eu chamei a atenção para isso no início de junho”, disse.

Mas o Google soltou um comunicado ao Engadget e ao The Verge que dá a entender que, de fato, o engenheiro não trabalha mais na companhia, mas não diz com exatidão que Lemoine foi demitido. No final da nota enviada pelo porta-voz Brian Gabriel, a companhia soltou um “desejamos boa sorte a Blake”. E, convenhamos, ninguém diria isso para uma pessoa que continua a trabalhar na sua empresa, certo?

Confira a nota na íntegra:

“À medida que compartilhamos nossos Princípios de IA, levamos o desenvolvimento de IA muito a sério e continuamos comprometidos com a inovação responsável. O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que envolve seu desenvolvimento responsável. Se um funcionário compartilhar preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses. Essas discussões fizeram parte da cultura aberta que nos ajuda a inovar com responsabilidade. Portanto, é lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.”

Inteligência artificial - ilustração

Engenheiro disse que IA era senciente; relembre o caso

Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.

E, de fato, as demonstrações iniciais foram bem promissoras. Todavia, é preciso calibrar estes recursos para evitar reações grosseiras ou até mesmo propagações de discursos de ódio na plataforma. E é aí que entra o trabalho do engenheiro Blake Lemoine, que ficou responsável por fazer essas análises no sistema.

Mas Lemoine notou, em conversas com o sistema, que a IA deu opiniões e até expressou emoções e sentimentos próprios – ou seja, tornou-se senciente. Não demorou muito e o engenheiro juntou tudo no documento “Is LaMDA Sentient? – an Interview” (“O LaMDA é senciente? – uma entrevista”, em tradução livre), para alertar os executivos sobre a IA. 

O diálogo foi publicado no seu perfil do Medium em 11 de junho. Mas o engenheiro já se preocupava com o seu emprego, desde que publicou o texto “Posso ser demitido em breve por fazer trabalho de ética em IA” em 6 de junho, depois que foi suspenso. Além disso, na época, o Google disse que revisou as preocupações de Lemoine e informou que as provas não suportam as suas alegações.

“Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)”, disse um porta-voz.

Tecnocast 249 – Inteligências artificiais podem ganhar consciência? (Imagem: Vitor Pádua / Tecnoblog)
Tecnocast 249 – Inteligências artificiais podem ganhar consciência? (Imagem: Vitor Pádua / Tecnoblog)

Tecnocast 249 – Inteligências artificiais podem ganhar consciência?

A ideia de máquinas conscientes nos fascina há décadas. São muitos filmes, livros e games que trabalham essa temática. Mas e se não for só ficção? E se hoje já existir uma inteligência artificial consciente? Um engenheiro do Google afirma que esse é o caso. E suas alegações provocaram uma nova onda de interesse no tema da IA, suas aplicações e possibilidades.

No episódio 249, recebemos o professor Augusto Baffa, do Departamento de Informática do CTC/PUC-Rio, que desenvolve pesquisas sobre inteligência artificial. Ele compartilha suas opiniões sobre o caso recente do Google, e de quebra dá uma aula sobre como sistemas inteligentes funcionam e a importância da Ética para essa área. Então dá o play e vem com a gente!

Com informações: Big TechnologyEngadget e The Verge

Bruno Gall De Blasi

Bruno Gall De Blasi é jornalista e cobre tecnologia desde 2016. Sua paixão pelo assunto começou ainda na infância, quando descobriu "acidentalmente" que "FORMAT C:" apagava tudo. Antes de seguir carreira em comunicação, fez Ensino Médio Técnico em Mecatrônica com o sonho de virar engenheiro. Entrou para o Tecnoblog em 2020 e também escreveu para o TechTudo e iHelpBR.

Mais Populares

Responde

Relacionados

Em destaque