Em um caso de teste para a indústria de inteligência artificial, um juiz federal decidiu que a empresa de IA Anthropic não violou a lei ao treinar seu chatbot Claude em milhões de livros protegidos por direitos autorais.
Mas a empresa ainda está em apuros e agora deve ir a julgamento sobre como adquiriu esses livros baixando-os de “bibliotecas paralelas” online de cópias piratas.
O juiz distrital dos EUA, William Alsup, de São Francisco, disse em uma decisão apresentada na noite de segunda-feira que a destilação de milhares de obras escritas pelo sistema de IA para produzir suas próprias passagens de texto se qualificava como “uso justo” pela lei de direitos autorais dos EUA porque era “essencialmente transformadora”.
“Como qualquer leitor que aspira a ser escritor, os modelos de linguagem de IA da Anthropic foram treinados para funcionar não para se apressar e replicá-los ou substituí-los — mas para contornar uma situação difícil e criar algo diferente”, escreveu Alsup.
Mas, ao mesmo tempo em que rejeita uma alegação importante feita pelo grupo de autores que processou a empresa por violação de direitos autorais no ano passado, Alsup também disse que a Anthropic ainda deve ir a julgamento em dezembro pelo suposto roubo de suas obras.
“A Anthropic não tinha o direito de usar cópias piratas em sua biblioteca central”, escreveu Alsup.
Um trio de escritores — Andrea Bartz, Charles Graeber e Kirk Wallace Johnson — alegou em seu processo no verão passado que as práticas da Anthropic equivaliam a “roubo em larga escala” e que a empresa “busca lucrar com a mineração da expressão humana e da engenhosidade por trás de cada uma dessas obras”.
“O fato de a Anthropic ter comprado posteriormente uma cópia de um livro que havia roubado da internet não a absolverá da responsabilidade pelo roubo, mas pode afetar a extensão dos danos legais”, escreveu Alsup.
A decisão pode abrir um precedente para processos semelhantes que se acumularam contra a concorrente da Anthropic, OpenAI, criadora do ChatGPT, bem como contra a Meta Platforms, empresa controladora do Facebook e do Instagram.
A Anthropic — fundada por ex-líderes da OpenAI em 2021 — se promoveu como a desenvolvedora mais responsável e focada em segurança de modelos de IA generativos que podem redigir e-mails, resumir documentos e interagir com pessoas de forma natural.
Mas o processo movido no ano passado alegou que as ações da Anthropic “zombaram de seus objetivos elevados” ao acessar repositórios de textos pirateados para desenvolver seu produto de IA.
A Anthropic disse na terça-feira que estava satisfeita que o juiz reconhecesse que o treinamento em IA foi transformador e consistente com “o propósito dos direitos autorais de permitir a criatividade e promover o progresso científico”. Sua declaração não abordou as alegações de pirataria.