Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Empresas criam Frontier Model Forum, que visa garantir segurança de modelos de inteligência artificial mais avançados que os atuais

Giovanni Santa Rosa

O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.

Entre os objetivos do grupo, estão:

  • avançar na pesquisa de segurança de IA para promover desenvolvimento responsável de modelos;
  • identificar as melhores práticas para desenvolvimento e implementação;
  • colaborar com formuladores de políticas públicas, pesquisadores, sociedade civil e empresas para compartilhar conhecimentos sobre riscos de segurança;
  • apoiar iniciativas para desenvolver aplicações para grandes desafios da sociedade, como mudanças climáticas, ameaças cibernéticas e prevenção do câncer.

As quatro empresas estão entre os principais nomes da inteligência artificial generativa.

O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.

Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.

Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.

IA está na mira de novas regulações

O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.

Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.

A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.

No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.

Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.

Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.

Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).

Com informações: The Financial Times, The Washington Post, TechCrunch

Leia | O que é inteligência artificial?

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.