IA do Google foi considerada até “cringe” em testes iniciais, revela jornal

Bloomberg divulgou documentos sobre reações iniciais dos funcionários em testes do Bard; Google teria pedido "omissão" para equipe de ética

Felipe Freitas
Por
Marca do Google (Imagem: Vitor Pádua/Tecnoblog)
Google (Imagem: Vitor Pádua/Tecnoblog)

Os funcionários do Google tiveram “fortes opiniões” sobre o Bard, a IA generativa do Google, no início dos seus testes. Em documentos acessados pela Bloomberg, o Bard foi considerado “pior que inútil” e um “mentiroso compulsivo”. Para esses funcionários, a IA não deveria ser lançada.

O jornal americano entrevistou 18 funcionários do Google, entre ex e atuais empregados. A Bloomberg acessou documentos internos do desenvolvimento do Bard, mais especificamente do período em que funcionários de outras equipes foram chamados para treinar a IA. Para complicar, a divisão de ética do Google foi “ignorada” sobre o lançamento do Bard.

“Mentiroso compulsivo” e “pior que inútil” são adjetivos para o Bard

Na captura de tela de uma conversa interna, a Bloomberg teve acesso a mensagens de funcionários chamando o Bard de “mentiroso compulsivo”, “pior que inútil: por favor não lancem” e “cringe” — um termo usado pelos milennials para vergonha-alheia.

Essas reações vêm das respostas dadas pelo Bard às perguntas feitas pelos funcionários — afinal, eles tinham que treinar a IA.

Nos relatos dos testes, os empregados fizeram perguntas sobre como mergulhar com equipamentos e como pousar um avião. No primeiro caso, um funcionário relatou que a resposta do Bard causaria lesões sérias ou morte”. Já no segundo caso, o feedback foi que as instruções da IA causaria uma queda do avião.

Sobre essa resposta do pouso, temos que aliviar a barra do Bard. Se alguém faz essa pergunta para uma IA, ela provavelmente não tem experiência de pilotagem — e as chances de derrubar o avião são altas.

Google
Para funcionários, estava visível que Bard era problemático (Imagem: Mitchell Luo/Unsplash)

Google ignorou equipe de ética ao lançar o Bard

Segundo a publicação, a equipe de ética do Google foi avisada a não entrar no meio do caminho e nem tentar “matar” qualquer ferramenta do Bard que estivesse em desenvolvimento.

Os funcionários e ex-funcionários do Google ouvidos pela Bloomberg explicaram que o time de ética da empresa foi “desmoralizado e desempoderado”. Em resposta ao veículo, a companhia disse que “continua investindo na equipe para aplicar os princípios de IA em suas tecnologias”.

GIF mostra Bard, chatbot do Google, em ação (Imagem: Divulgação/Google)
No evento de anúncio do Bard, Google mostrou GIF com informações erradas (Imagem: Divulgação/Google)

Contudo, as reclamações sobre o Bard e a ideia de que ele foi lançado antes da hora não são novas.

Em fevereiro, dias depois da apresentação da IA generativa, surgiram de que funcionários não gostaram do anúncio do Bard. Essas reações foram publicadas na rede interna do Google.

Pouco depois, foi a vez do presidente da Alphabet, dona do Google, disse acreditar que o Bard não estava pronto para chegar como um produto.

Com informações: The Verge e Bloomberg

Receba mais sobre Google na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Felipe Freitas

Felipe Freitas

Repórter

Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.

Relacionados