Gigantes da inteligência artificial se comprometem com regras do governo dos EUA
Proposta do governo estadunidense é primeira tentativa da Casa Branca antes de criar uma regulamentação; comprometimento foi ação voluntária das empresas
As grandes empresas de inteligência artificial anunciaram o comprometimento de seguir as diretrizes do governo americano sobre o desenvolvimento seguro de IAs. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aprovaram as medidas da Casa Branca nesta sexta-feira (21). Com esse acordo, as companhias seguirão diretrizes de segurança para evitar riscos na evolução das IAs.
O anúncio do acordo entre as partes (governo e empresas) foi publicado no site oficial da Casa Branca. Segundo o texto, o comprometimento das empresas foi voluntário. O governo americano informa ainda que está em contato com outras nações, incluindo o Brasil, para ampliar o número de empresas e governos que apoiam as diretrizes de segurança para o desenvolvimento de IAs.
Medidas para o desenvolvimento seguro de IAs
No total, foram apresentadas oito diretrizes (ou medidas) para o desenvolvimento seguro de inteligências artificiais. Essas medidas são apenas o primeiro passo da Casa Branca antes de criar uma proposta de regulamentação. Iremos resumi-las de acordo com as suas similaridades.
Garantir uma IA segura antes do lançamento: Neste ponto, as empresas se comprometem a permitir que terceiros realizem testes com suas inteligências artificiais. Esses testes verificarão os riscos da IA expor dados sobre biossegurança e cibersegurança. As empresas também compartilharão informações com governos, indústria, sociedade e academia, além de promover práticas positivas sobre segurança, compartilhar técnicas e tentativas de “driblar” as medidas de segurança das IAs — como aquelas que impedem om ChatGPT de escrever vírus.
“Segurança em primeiro lugar”: Basicamente um complemento do ponto anterior, essa diretriz exige que as empresas só lance seus modelos após a garantia de que a IA é segura. As companhias também facilitarão que terceiros descubram e reportem vulnerabilidades. A IA necessitará ainda de um “mecanismo robusto” de comunicação de falha.
“Conquistar a confiança do público”: Aqui, a proposta do governo americano é que as empresas criem ferramentas que permitam identificar se um conteúdo é gerado por IA; divulguem as capacidades das suas IAs (que pode evitar os casos de acusações falsas de plágio pelo ChatGPT); priorizem pesquisas no riscos da tecnologia sobre a sociedade; evitem conteúdos prejudiciais e discriminatórios e protejam a privacidade. Há também uma exigência para que as empresas desenvolvam sistemas avançados de IA para resolver os principais desafios da sociedade, como cura de cânceres e mitigação dos efeitos das mudanças climáticas.
Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.