Conferência de machine learning proíbe artigos gerados pelo ChatGPT
Como motivos para o impedimento, evento apontou problemas relacionados à origem das informações e à autoria do que é produzido
Como motivos para o impedimento, evento apontou problemas relacionados à origem das informações e à autoria do que é produzido
No início desta semana, a Conferência Internacional sobre Aprendizado de Máquina (ICML), convenção que é uma das mais importantes do segmento, anunciou a proibição de textos inteiramente produzidos com ferramentas de IA, como o ChatGPT, para os seus trabalhos acadêmicos. Apesar da decisão, ferramentas do gênero poderão ser usadas na edição e aprimoramento dos artigos.
A decisão causou polêmica desde quando foi anunciada, dividindo a comunidade acadêmica entre aqueles que apoiaram e contestaram a medida.
Segundo a própria ICML, a deliberação aconteceu, pois, embora modelos de linguagem em larga escala constituam um “progresso empolgante no processamento e geração de linguagem natural”, nem tudo são flores, e “esse progresso rápido muitas vezes vem com consequências imprevistas, bem como perguntas sem resposta.”
Entre as questões levantadas pela conferência está, por exemplo, a dúvida se um texto gerado por essa tecnologia pode ser considerado uma produção nova ou meramente derivada de um trabalho já existente. Além disso, quem seria o verdadeiro proprietário desse conteúdo? Um usuário da ferramenta, o desenvolvedor que treinou o modelo ou os criadores que produziram os exemplos?
Uma série de indagações que, dado o surgimento recente desses modelos de IA, ainda não foram esclarecidas e podem afetar diretamente no processo de revisão dos trabalhos em questão.
Os esclarecimentos prestados pela ICML aconteceram após autores entrarem em contato com a conferência e questionarem a decisão, tendo em vista que ferramentas de IA poderiam ser importantes para o seu trabalho.
Entre as defesas apontadas pelos acadêmicos estava, por exemplo, o uso de IA por quem não tem o inglês como seu primeiro idioma, já que algumas ferramentas do gênero ajudariam a tornar um texto mais fluido para revisão.
Ao The Verge, o professor Yoav Goldberg, da Universidade Bar-Ilan, de Israel, explicou que softwares como o Grammarly, por exemplo, podem de fato ser muito úteis em situações como essa. No entanto, o acadêmico chamou atenção para o fato de que as ferramentas proibidas pela conferência são modelos de IA muito mais complexos do que a plataforma, contando inclusive com finalidades e níveis de intervenção muito mais drásticos do que o exemplo dado.
Em sua defesa, a ICML deixa claro que apenas proíbe textos gerados inteiramente por modelos de linguagem em larga escala (LLM), como o ChatGPT, mas que “isso não proíbe os autores de usar LLMs para editar ou polir o texto escrito”.
Além disso, a conferência sinalizou que não pretende implementar nenhum sistema automatizado que investigue uma possível violação dessa política, e sim apenas apurar casos que tenham sido denunciados ao evento.
{{ excerpt | truncatewords: 55 }}
{% endif %}