Carta sobre riscos da IA é chamada de “enganosa” e “cheia de hype”
Especialistas em computação e inteligência artificial reagiram ao conteúdo e à entidade por trás da carta que pede pausa no desenvolvimento de IAs
Especialistas em computação e inteligência artificial reagiram ao conteúdo e à entidade por trás da carta que pede pausa no desenvolvimento de IAs
Na última terça-feira (28), uma carta aberta com assinatura de nomes famosos do mundo tech foi publicada pedindo uma “pausa” no desenvolvimento de IA. Contudo, especialistas em inteligência artificial começaram a reagir com críticas à carta. Para eles, o conteúdo é exagerado, focado em riscos “especulativos” e feito por uma entidade defensora do longoprazismo.
Entre os nomes que assinaram a carta pedindo uma pausa no desenvolvimento de IA estão: Elon Musk, Steve Wozniak (co-fundador da Apple), Jaan Tallinn (co-fundador do Skype), Evan Sharp (co-fundador do Pinterest) e Yuval Noah Hariri (autor dos livros Homo Deus e Sapiens). Recentemente, foi revelado que Musk tentou assumir controle da OpenAI, desenvolvedora do ChatGPT e foco dos holofotes sobre o tema IA.
Arvin Narayanan, professor de ciências da computação em Princeton, e Sayash Kapoor, doutorando na mesma universidade, ambos pesquisadores de inteligência artificial, são dois críticos do conteúdo da carta. Para eles, os riscos apontados na carta apontam problemas que talvez nem venham a acontecer, ignorando riscos reais que já estão acontecendo.
Para exemplificar, os pesquisadores comparam o risco especulativo (termo usado por eles) de que as IA ampliaram as campanhas de desinformação com o problema real do uso irresponsável.
Na carta, é citado que a IAs serão usadas para espalhar fake news. Porém, os pesquisadores defendem que isso já acontece com outras IAs abertas — e, convenhamos, nem precisa de inteligência artificial, bastam bots. Para Narayanan e Kapoor, o risco real de hoje, que precisa ser resolvido, é o uso das ferramentas sem seguir diretrizes. Eles citam nominalmente o caso do site CNET, que usou IA para publicar textos de sugestões financeiras sem uma revisão apropriada.
O “risco especulativo” de deixar empregos obsoletos (lembrando que um dos assinantes demitiu metade da empresa que recém-comprou) foi rebatido com os casos de exploração de trabalhadores e de plágio em IAs que criam imagens. Sobre a primeira situação, os pesquisadores usaram de referência o fato que a OpenAI pagou menos de US$ 2 (R$ 10,18) por hora para os funcionários que filtraram o conteúdo tóxico do ChatGPT.
O terceiro e último ponto levantado foi sobre o risco atual de vazamento de dados. A integração de IAs, como o ChatGPT, com outras aplicações podem ser hackeadas, revelando dados sensíveis. Narayanan e Kapoor afirmam que o “hype da carta” prejudicará as pesquisas sobre vulnerabilidades das tecnologias, já que as empresas fecharão ainda mais o acesso aos seus LLMs (modelo de linguagem grande).
Emily Bender, professora de linguística computacional na Universidade de Washington, também criticou o conteúdo. Todavia, ao contrário de Naranayan e Kapoor, ela também criticou a filosofia por trás da entidade autora da carta.
Em uma publicação no seu Medium, Bender destaca que concorda com alguns pontos da carta, até um artigo científico seu é citado na carta. Só que ela explica que o artigo fala sobre LLMs, não inteligência artificial.
Além de criticar alguns pontos da carta, chegando até a fazer contrapontos parecidos com os dos pesquisadores de Princeton, Bender relembrou a proposta da Future of Life, entidade autora da carta — e que tem Elon Musk como um dos seus financiadores.
A professora da Universidade de Washington relembra que a entidade segue a linha de pensamento do “longoprazismo” (“longtermist” em inglês). Essa filosofia defende o desenvolvimento do futuro a longo prazo (a origem do nome). Mas um longo prazo bem longo, como algo para daqui a um século, 500 anos ou 10.000 anos. Enquanto o agora fica de lado. Ou seja, pausar o desenvolvimento impede a resolução de problemas.
Um exemplo de longoprazismo é o projeto de colonizar Marte, algo defendido por Musk. Uma das críticas ao projeto é que o dinheiro investido nele poderia atender problemas que impactam a humanidade hoje. O problema mais lembrado é o aquecimento global, que poderia ser revertido com a ampliação de fontes de energia limpa. Mas também podemos citar projetos para melhor o fornecimento de água potável para os 2 bilhões de pessoas que consomem água contaminada.
As críticas à carta não dizem que a IA é perfeita e nem que elas precisam ser desenvolvidas de maneira descontrolada. Pelo contrário: Emily Bender, Arvin Narayanan e Sayash Kapoor mostram que há problemas reais e que é necessário corrigi-los.
Todavia, isso não é nada fácil. Em seu livro Aceleração, o sociólogo alemão Harmut Rosa explica a sua teoria de aceleração social. Em resumo (recomendo a leitura se você quiser saber mais), Rosa mostra como a sociedade evolui mais rápido que a política. Isso quer dizer que, de qualquer maneira, legislações sobre o uso correto de IAs chegarão tarde demais — assim como as leis sobre dados privados e redes sociais.
Com informações: Emily Bender e AI Snake Oil