Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA
Empresas criam Frontier Model Forum, que visa garantir segurança de modelos de inteligência artificial mais avançados que os atuais
Empresas criam Frontier Model Forum, que visa garantir segurança de modelos de inteligência artificial mais avançados que os atuais
O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.
Entre os objetivos do grupo, estão:
As quatro empresas estão entre os principais nomes da inteligência artificial generativa.
O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.
Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.
Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.
O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.
Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.
A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.
No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.
Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.
Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.
Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).
Com informações: The Financial Times, The Washington Post, TechCrunch