OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI dá a entender que interface de voz associada ao ChatGPT é tão realista que pode fazer usuários criarem vínculos emocionais a ela

Emerson Alecrim
Por
• Atualizado há 2 dias
ChatGPT
OpenAI alerta para risco de "apego emocional" à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena de Her (Imagem: Divulgação/Warner Bros)
Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired

Relacionados

Escrito por

Emerson Alecrim

Emerson Alecrim

Repórter

Emerson Alecrim cobre tecnologia desde 2001 e entrou para o Tecnoblog em 2013, se especializando na cobertura de temas como hardware, sistemas operacionais e negócios. Formado em ciência da computação, seguiu carreira em comunicação, sempre mantendo a tecnologia como base. Em 2022, foi reconhecido no Prêmio ESET de Segurança em Informação. Em 2023, foi reconhecido no Prêmio Especialistas, em eletroeletrônicos. Participa do Tecnocast, já passou pelo TechTudo e mantém o site Infowester.