Ex-funcionários acusam OpenAI e Google DeepMind de imprudência ao desenvolver IA
Grupo sugere quatro princípios para que funcionários tenham segurança para alertar empresas sobre riscos da inteligência artificial
Grupo sugere quatro princípios para que funcionários tenham segurança para alertar empresas sobre riscos da inteligência artificial
Funcionários atuais e ex-funcionários da OpenAI e do Google DeepMind lançaram uma carta aberta contra o que chamam de “cultura de imprudência e sigilo”. O grupo pede que funcionários tenham o direito de alertar as empresas sobre os riscos da inteligência artificial.
“A OpenAI está muito animada para construir a IA geral, e eles estão correndo de forma imprudente para serem os primeiros”, diz Daniel Kokotajlo ao jornal The New York Times. Ele é ex-pesquisador da divisão de governança da OpenAI e um dos organizadores do grupo.
William Saunders, engenheiro de pesquisa que deixou a OpenAI em fevereiro, também manifestou apoio ao documento. Ele critica a postura da empresa. “Quando eu assinei meu contrato com a OpenAI, não esperava esta atitude ‘Vamos lançar as coisas para ver o que acontece e depois consertamos’”.
Ao NYT, Lindsey Held, porta-voz da OpenAI, diz que a empresa tem orgulho de seu histórico de fornecer os sistemas de IA mais capazes e seguros. A companhia afirma que vai continuar debatendo a segurança da tecnologia com governos, comunidades e a sociedade civil.
A carta aberta, intitulada “Um direito de alertar sobre a inteligência artificial avançada”, diz que as empresas de IA têm fortes incentivos financeiros para evitar uma supervisão efetiva. Os signatários acreditam que as estruturas de governança das próprias companhias não são suficientes para mudar isso.
Os ex-funcionários e funcionários atuais também afirmam que as empresas possuem informações sobre capacidades e limitações de seus sistemas, adequação de medidas de proteção e diferentes níveis de risco. No entanto, estas informações não estariam sendo compartilhadas com a sociedade de forma adequada.
O grupo pede que as empresas de IA sigam quatro princípios:
A carta é assinada por Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Waiwright, Daniel Ziegler (ex-funcionários da OpenAI), Ramana Kumar (ex-funcionário do Google DeepMind), Neel Nanda (funcionário atual do Google DeepMind e ex-funcionário da Anthropic).
Além deles, outros seis apoiadores pediram para manter anonimato (quatro funcionários atuais e dois ex-funcionários da OpenAI). Os especialistas Yoshua Bengio, Geoffrey Hilton e Stuart Russell endossam o documento.
Pessoas ligadas à OpenAI vêm criticando a empresa por não dar a devida importância à segurança. Jan Leike, que era um dos líderes do grupo de superalinhamento, deixou seu cargo em meados de maio. Ele disse discordar das prioridades da empresa e que mais recursos deveriam ser destinados à preparação para os riscos dos futuros modelos.
Helen Toner, que fazia parte do conselho de diretores, revelou que só soube do lançamento do ChatGPT quando viu no Twitter — a decisão não foi comunicada antecipadamente. Nem Leike, nem Toner estão entre os apoiadores da carta aberta.
Toner votou pela demissão do CEO Sam Altman em novembro de 2023. Altman deixou o cargo, mas foi reconduzido em menos de duas semanas. Um novo conselho de diretores foi formado, sem Toner e outros membros que se opuseram a Altman.
Na última quarta-feira (28 de maio), a OpenAI anunciou a criação do Comitê de Segurança e Proteção, que vai supervisionar o treinamento do próximo modelo da empresa. O grupo é composto por Altman e membros do novo conselho de diretores.
Com informações: The New York Times