Anthropic vence processo sobre uso de livros físicos para treinar IA
Juiz equipara situação ao uso para aprendizado de crianças em idade escolar. Decisão favorável à empresa é limitada ao uso de obras compradas legalmente.
Juiz equipara situação ao uso para aprendizado de crianças em idade escolar. Decisão favorável à empresa é limitada ao uso de obras compradas legalmente.
Em meio à onda de processos contra empresas de inteligência artificial, um juiz federal dos Estados Unidos decidiu que a Anthropic, criadora da IA Claude, não violou direitos autorais ao treinar seus modelos com livros comprados legalmente.
A decisão, emitida nessa segunda-feira (23) pelo juiz William Alsup, da Califórnia, enquadra a prática na doutrina de uso justo (“fair use”, em inglês), princípio da legislação americana que permite certos usos de obras protegidas sem autorização do autor.
No entanto, a decisão não encerra o processo. O juiz determinou que a Anthropic ainda enfrentará um julgamento separado relacionado à acusação de ter utilizado livros pirateados, obtidos na internet, em sua biblioteca de conteúdo, mesmo que não os tenha usado para treinamento da IA.
A ação foi movida por um grupo de autores que acusa a Anthropic de usar ilegalmente “centenas de milhares de obras protegidas por direitos autorais” no desenvolvimento do Claude.
Em sua análise, o juiz Alsup argumenta que os modelos de linguagem não reproduzem diretamente elementos criativos das obras originais, nem imitam o estilo de autores específicos.
“A queixa dos autores não é diferente do que seria se eles reclamassem que treinar crianças em idade escolar para escrever bem resultaria em uma explosão de obras concorrentes”, escreveu o juiz.
Ele classifica, portanto, que o uso dos materiais é diferente o suficiente para se enquadrar no uso justo, já que o objetivo da empresa não seria replicar os livros, mas treinar um sistema capaz de compreender linguagem natural.
O Claude integra uma família de modelos de linguagem de larga escala (LLMs) desenvolvida pela Anthropic para competir com o ChatGPT, da OpenAI. Ele funciona com base em algoritmos que processam grandes volumes de texto, compreendem contextos e geram respostas coerentes.
A Anthropic, inclusive, empregou o Claude AI no processo contra a Universal Music Group para ajudar na própria defesa.
Apesar da vitória parcial, a decisão do juiz Alsup foi categórica em outro ponto: a empresa não está livre de responsabilidade pelo suposto uso de cópias piratas.
O juiz ordenou a realização de um julgamento separado para tratar do material pirateado que a Anthropic incluiu em sua biblioteca, mesmo que a empresa afirme não ter utilizado essas cópias para o treinamento da IA.
“O fato de a Anthropic ter comprado posteriormente uma cópia de um livro que havia roubado da internet não a absolverá da responsabilidade pelo roubo, mas pode afetar a extensão dos danos estatutários”, escreveu o juiz.
Apesar do “porém”, a decisão ainda pode ser considerada uma vitória importante para as empresas de inteligência artificial. Ela estabelece um precedente legal de que o treinamento de modelos com material legalmente adquirido é uma prática defensável sob a lei de “uso justo” nos EUA.
Outros casos, como o processo movido pelo jornal New York Times contra a OpenAI e a Microsoft, continuam em andamento e ainda podem definir limites (ou liberdades) legais para o treinamento de modelos de linguagem.
{{ excerpt | truncatewords: 35 }}
{% endif %}