Microsoft dá “liberdade” para personalidade do Bing Chat ser mais criativa
Inteligência artificial ganha três modos, para usuário escolher entre respostas criativas, precisas ou um meio-termo entre as duas
Inteligência artificial ganha três modos, para usuário escolher entre respostas criativas, precisas ou um meio-termo entre as duas
O Bing Chat chegou prometendo ajudar usuários a encontrar informações e criar textos. Em alguns casos, porém, a inteligência artificial passou a ter um comportamento esquisito e dar respostas mal-educadas. Para ajustar isso, a Microsoft vai dar opções de personalidade para o robô: amplificada, criativa e equilibrada.
O modo amplificado é chamado de preciso em inglês, o que seria uma tradução melhor, na minha humilde opinião. Nele, o Bing Chat vai tentar procurar informações relevantes e factuais. As respostas também serão mais curtas.
Já no modo criativo, elas serão mais originais e imaginativas. A Microsoft promete surpresas e entretenimento nesse.
O modo equilibrado, como você pode imaginar, pega um pouco de cada. Ele vem ativado por padrão.
A Microsoft colocou restrições no Bing Chat depois de a inteligência artificial ser rude e até mesmo manipuladora com alguns usuários.
O problema é que, depois disso, o robô passou a se recusar a atender pedidos simples. Ele parecia pouco confiante.
Muitas dessas restrições foram abrandadas nas últimas semanas, para deixar o chatbot mais livre para voltar a responder perguntas.
A nova seleção de modo deve ajudar nisso: se o usuário se sentir desconfortável, ele pode mudar para o modo preciso e ter à disposição um robô menos tagarela. Se ele precisar de ideias, é só ir para o modo criativo.
Além disso, a nova atualização do Bing Chat deve ter reduzir o número de casos de alucinação nas respostas, de acordo com Mikhail Parakhin, chefe de serviços web da Microsoft.
Alucinação é o jargão técnico para quando o modelo de linguagem produz respostas com dados pouco precisos ou totalmente inventados.
Em um desses casos, o Bing simplesmente confundiu o ano em que estamos e se recusou a corrigir após entrar em contradição. A inteligência artificial insistiu que era o usuário quem estava errado.
Será que ela estava sendo criativa? Sabemos que precisa não era.
Com informações: The Verge.
{{ excerpt | truncatewords: 55 }}
{% endif %}