Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

Proposta do governo estadunidense é primeira tentativa da Casa Branca antes de criar uma regulamentação; comprometimento foi ação voluntária das empresas

Felipe Freitas
Por
Inteligência artificial
Principais empresas de IA na atualidade aprovaram diretrizes sugeridas pelo governo americano (Imagem: Vitor Pádua / Tecnoblog)

As grandes empresas de inteligência artificial anunciaram o comprometimento de seguir as diretrizes do governo americano sobre o desenvolvimento seguro de IAs. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aprovaram as medidas da Casa Branca nesta sexta-feira (21). Com esse acordo, as companhias seguirão diretrizes de segurança para evitar riscos na evolução das IAs.

O anúncio do acordo entre as partes (governo e empresas) foi publicado no site oficial da Casa Branca. Segundo o texto, o comprometimento das empresas foi voluntário. O governo americano informa ainda que está em contato com outras nações, incluindo o Brasil, para ampliar o número de empresas e governos que apoiam as diretrizes de segurança para o desenvolvimento de IAs.

Medidas para o desenvolvimento seguro de IAs

No total, foram apresentadas oito diretrizes (ou medidas) para o desenvolvimento seguro de inteligências artificiais. Essas medidas são apenas o primeiro passo da Casa Branca antes de criar uma proposta de regulamentação. Iremos resumi-las de acordo com as suas similaridades.

  • Garantir uma IA segura antes do lançamento: Neste ponto, as empresas se comprometem a permitir que terceiros realizem testes com suas inteligências artificiais. Esses testes verificarão os riscos da IA expor dados sobre biossegurança e cibersegurança.
    As empresas também compartilharão informações com governos, indústria, sociedade e academia, além de promover práticas positivas sobre segurança, compartilhar técnicas e tentativas de “driblar” as medidas de segurança das IAs — como aquelas que impedem om ChatGPT de escrever vírus.
ChatGPT e Sam Altman, CEO da OpenAI
OpenAI, criadora do ChatGPT, é uma das empresas que aceitou as diretrizes da Casa Branca (Imagem: Vitor Pádua / Tecnoblog)
  • “Segurança em primeiro lugar”: Basicamente um complemento do ponto anterior, essa diretriz exige que as empresas só lance seus modelos após a garantia de que a IA é segura. As companhias também facilitarão que terceiros descubram e reportem vulnerabilidades. A IA necessitará ainda de um “mecanismo robusto” de comunicação de falha.
  • “Conquistar a confiança do público”: Aqui, a proposta do governo americano é que as empresas criem ferramentas que permitam identificar se um conteúdo é gerado por IA; divulguem as capacidades das suas IAs (que pode evitar os casos de acusações falsas de plágio pelo ChatGPT); priorizem pesquisas no riscos da tecnologia sobre a sociedade; evitem conteúdos prejudiciais e discriminatórios e protejam a privacidade.
    Há também uma exigência para que as empresas desenvolvam sistemas avançados de IA para resolver os principais desafios da sociedade, como cura de cânceres e mitigação dos efeitos das mudanças climáticas.

Com informações: New York Times e Google

Receba mais sobre EUA na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Felipe Freitas

Felipe Freitas

Repórter

Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.

Canal Exclusivo

Relacionados