Microsoft dá “liberdade” para personalidade do Bing Chat ser mais criativa

Inteligência artificial ganha três modos, para usuário escolher entre respostas criativas, precisas ou um meio-termo entre as duas

Giovanni Santa Rosa
Por
• Atualizado há 6 meses
Novo Microsoft Bing tem caixa de texto maior para escrever perguntas
Novo Microsoft Bing tem caixa de texto maior para escrever perguntas (Imagem: Divulgação/Microsoft)

O Bing Chat chegou prometendo ajudar usuários a encontrar informações e criar textos. Em alguns casos, porém, a inteligência artificial passou a ter um comportamento esquisito e dar respostas mal-educadas. Para ajustar isso, a Microsoft vai dar opções de personalidade para o robô: amplificada, criativa e equilibrada.

O modo amplificado é chamado de preciso em inglês, o que seria uma tradução melhor, na minha humilde opinião. Nele, o Bing Chat vai tentar procurar informações relevantes e factuais. As respostas também serão mais curtas.

Já no modo criativo, elas serão mais originais e imaginativas. A Microsoft promete surpresas e entretenimento nesse.

O modo equilibrado, como você pode imaginar, pega um pouco de cada. Ele vem ativado por padrão.

Bing agora tem três modos
Bing agora tem três modos (Imagem: Reprodução/Tecnoblog)

Restrições deixaram Bing Chat “tímido”

A Microsoft colocou restrições no Bing Chat depois de a inteligência artificial ser rude e até mesmo manipuladora com alguns usuários.

O problema é que, depois disso, o robô passou a se recusar a atender pedidos simples. Ele parecia pouco confiante.

Muitas dessas restrições foram abrandadas nas últimas semanas, para deixar o chatbot mais livre para voltar a responder perguntas.

A nova seleção de modo deve ajudar nisso: se o usuário se sentir desconfortável, ele pode mudar para o modo preciso e ter à disposição um robô menos tagarela. Se ele precisar de ideias, é só ir para o modo criativo.

IA vai alucinar menos, promete Microsoft

Além disso, a nova atualização do Bing Chat deve ter reduzir o número de casos de alucinação nas respostas, de acordo com Mikhail Parakhin, chefe de serviços web da Microsoft.

Alucinação é o jargão técnico para quando o modelo de linguagem produz respostas com dados pouco precisos ou totalmente inventados.

Em um desses casos, o Bing simplesmente confundiu o ano em que estamos e se recusou a corrigir após entrar em contradição. A inteligência artificial insistiu que era o usuário quem estava errado.

Será que ela estava sendo criativa? Sabemos que precisa não era.

Com informações: The Verge.

Receba mais sobre Microsoft na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.

Relacionados