Conferência de machine learning proíbe artigos gerados pelo ChatGPT

Como motivos para o impedimento, evento apontou problemas relacionados à origem das informações e à autoria do que é produzido

Paula Alves
Por
Conferência de machine learning proíbe artigos gerados pelo ChatGPT / Max Pixel
Inteligência artificial (Imagem: Max Pixel)

No início desta semana, a Conferência Internacional sobre Aprendizado de Máquina (ICML), convenção que é uma das mais importantes do segmento, anunciou a proibição de textos inteiramente produzidos com ferramentas de IA, como o ChatGPT, para os seus trabalhos acadêmicos. Apesar da decisão, ferramentas do gênero poderão ser usadas na edição e aprimoramento dos artigos.

A decisão causou polêmica desde quando foi anunciada, dividindo a comunidade acadêmica entre aqueles que apoiaram e contestaram a medida.

Segundo a própria ICML, a deliberação aconteceu, pois, embora modelos de linguagem em larga escala constituam um “progresso empolgante no processamento e geração de linguagem natural”, nem tudo são flores, e “esse progresso rápido muitas vezes vem com consequências imprevistas, bem como perguntas sem resposta.”

Entre as questões levantadas pela conferência está, por exemplo, a dúvida se um texto gerado por essa tecnologia pode ser considerado uma produção nova ou meramente derivada de um trabalho já existente. Além disso, quem seria o verdadeiro proprietário desse conteúdo? Um usuário da ferramenta, o desenvolvedor que treinou o modelo ou os criadores que produziram os exemplos?

Uma série de indagações que, dado o surgimento recente desses modelos de IA, ainda não foram esclarecidas e podem afetar diretamente no processo de revisão dos trabalhos em questão.

Decisão foi contestada por autores

ChatGPT também conversa em português (imagem: Emerson Alecrim/Tecnoblog)
ChatGPT também conversa em português (imagem: Emerson Alecrim/Tecnoblog)

Os esclarecimentos prestados pela ICML aconteceram após autores entrarem em contato com a conferência e questionarem a decisão, tendo em vista que ferramentas de IA poderiam ser importantes para o seu trabalho.

Entre as defesas apontadas pelos acadêmicos estava, por exemplo, o uso de IA por quem não tem o inglês como seu primeiro idioma, já que algumas ferramentas do gênero ajudariam a tornar um texto mais fluido para revisão.

Ao The Verge, o professor Yoav Goldberg, da Universidade Bar-Ilan, de Israel, explicou que softwares como o Grammarly, por exemplo, podem de fato ser muito úteis em situações como essa. No entanto, o acadêmico chamou atenção para o fato de que as ferramentas proibidas pela conferência são modelos de IA muito mais complexos do que a plataforma, contando inclusive com finalidades e níveis de intervenção muito mais drásticos do que o exemplo dado.

Em sua defesa, a ICML deixa claro que apenas proíbe textos gerados inteiramente por modelos de linguagem em larga escala (LLM), como o ChatGPT, mas que “isso não proíbe os autores de usar LLMs para editar ou polir o texto escrito”.

Além disso, a conferência sinalizou que não pretende implementar nenhum sistema automatizado que investigue uma possível violação dessa política, e sim apenas apurar casos que tenham sido denunciados ao evento.

Receba mais notícias do Tecnoblog na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Paula Alves

Paula Alves

Repórter

Paula Alves é jornalista especialista em streamings e cultura pop. Formada pela Unesp (Universidade Estadual Paulista), antes do Tecnoblog, trabalhou por sete anos com jornalismo impresso na Editora Alto Astral. No digital, escreveu sobre games e comportamento para a Todateen e sobre cinema e TV para o Critical Hits. Apaixonada por moda, já foi assistente de produção do SPFW.

Relacionados