OpenAI dá mais detalhes sobre medidas de segurança do ChatGPT e avanços do GPT-4

Criadora do ChatGPT ressaltou seus trabalhos para melhorar a segurança e privacidade no uso do robô, mas ainda não consegue prever o que as pessoas farão com a tecnologia

Ricardo Syozi

A OpenAI divulgou um artigo na quarta-feira (5), no qual fez afirmações sobre a segurança relacionada ao ChatGPT. Além de comentários focados no futuro da tecnologia, a empresa deu satisfações ao público no que se refere ao conteúdo prejudicial a crianças e a privacidade de usuários. Além disso, a companhia relatou melhorias na precisão factual do GPT-4.

ChatGPT
Inteligência artificial (Imagem: Max Pixel)

Segundo a OpenAI, ferramentas como o ChatGPT vêm com riscos reais. Porém, a empresa afirmou que se dedica para garantir que a segurança seja incorporada ao sistema em todos os níveis.

Ela também disse que antes de lançar qualquer novidade, a companhia faz testes rigorosos e trabalha para “melhorar o comportamento do modelo com técnicas como aprendizado por reforço com feedback humano”. Entretanto, a marca confirmou que apesar de realizar testes e pesquisas extensas, ela não consegue prever todas as formas que as pessoas poderão abusar da tecnologia.

Sendo assim, o “mundo real” levou a OpenAI a desenvolver políticas cada vez mais diversificadas contra o comportamento que representa um risco genuíno para os indivíduos, enquanto ainda oferece benefícios para os usuários.

chatgpt
Página inicial do ChatGPT (Imagem: Reprodução / Internet)

Privacidade geral e CSAM

A segurança de crianças e a privacidade dos usuários, motivos que causaram o banimento do ChatGPT na Itália, é um assunto importante, conforme a OpenAI.

Ela afirmou que não vende dados, mas que os usa para tornar os modelos mais úteis. Por exemplo: o ChatGPT se aprimora a partir das conversas que os indivíduos têm com ele.

Mesmo que algumas das referências que alimentam o chatbot venham da internet, a empresa diz que quer que os robôs aprendam sobre o mundo e não sobre a vida particular de cada um.

Para prevenir isso, a firma trabalha para remover “informações pessoais do conjunto de dados sempre que possível. Tenta ajustar modelos para rejeitar solicitações desse tipo e responder a pedidos de indivíduos para excluir suas informações particulares dos sistemas”.

Outro fator importante é a proteção das crianças. Além de restringir que apenas maiores de 18 anos usem a IA (13 a 17 anos apenas com aprovação dos responsáveis), a OpenAI quer mais:

Fizemos um esforço significativo para minimizar o potencial de nossos sistemas de gerar conteúdo que prejudique as crianças. Por exemplo: quando os usuários tentam fazer upload de Material de Abuso de Segurança Infantil (CSAM) para nossas ferramentas de imagem, nós o bloqueamos e denunciamos ao Centro Nacional para Crianças Desaparecidas e Exploradas.

GPT-4 acerta mais do que a versão anterior

Ainda falando em segurança, a companhia ressaltou o avanço que conseguiu realizar com o GPT-4. Segundo a OpenAI, a nova versão tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido em comparação com o GPT-3.5.

O aprimoramento de acertos factuais também foi exaltado pela empresa. Através do feedback de usuários em informações sinalizadas como incorretas no chatbot como uma fonte principal de dados, os desenvolvedores conseguiram melhorar a precisão factual do GPT-4. Eles disseram que ele tem 40% mais chances de produzir conteúdo verdadeiro do que sua versão anterior.

Com informações: OpenAI.

Relacionados

Escrito por

Ricardo Syozi

Ricardo Syozi

Ex-autor

Ricardo Syozi é jornalista apaixonado por tecnologia e especializado em games atuais e retrôs. Já escreveu para veículos como Nintendo World, WarpZone, MSN Jogos, Editora Europa e VGDB. No Tecnoblog, autor entre 2021 e 2023. Possui ampla experiência na cobertura de eventos, entrevistas, análises e produção de conteúdos no geral.