Inteligência ArtificialTecnologia

Marco histórico: Anthropic pagará US$ 1,5 bilhão a escritores por treinar IA com livros piratas

Em um acordo sem precedentes, a criadora do chatbot Claude encerra processo por violação de direitos autorais e é forçada a apagar obras de seus servidores, estabelecendo uma nova regra no jogo para o Vale do Silício.

A primeira grande batalha entre criadores de conteúdo e as gigantes de Inteligência Artificial teve um vencedor claro. A Anthropic, empresa desenvolvedora do popular chatbot Claude, concordou em pagar uma indenização de US$ 1,5 bilhão para encerrar um processo movido por milhares de escritores. A ação acusava a companhia de usar cerca de 500 mil livros, baixados de sites piratas, para treinar seu modelo de linguagem sem qualquer autorização ou pagamento.

O acordo é considerado um marco histórico e a primeira grande vitória de detentores de direitos autorais na era da IA generativa. Ele envia um recado direto a todo o Vale do Silício: a era de usar livremente o conteúdo da internet para treinar algoritmos, sem se preocupar com a origem ou a autoria, pode ter chegado ao fim.

A origem do processo: 500 mil livros baixados ilegalmente

A ação judicial começou de forma modesta, movida por três autores, mas rapidamente ganhou a adesão de milhares de outros escritores, com o apoio do sindicato Authors Guild. A acusação central era de que a Anthropic alimentou sua IA com um vasto acervo de obras literárias, incluindo thrillers, biografias e outros gêneros, obtidas ilegalmente de repositórios piratas como o LibGen. O objetivo era “ensinar” o chatbot a escrever e raciocinar, usando o trabalho de uma vida inteira de centenas de autores.

Para entender melhor: ‘Uso Justo’ vs. Pirataria na era da IA

Este caso gira em torno de uma questão jurídica complexa: o “uso justo” (fair use). Para entender a decisão, vamos usar a analogia de um chef de cozinha. Imagine que um chef (a empresa de IA) quer aprender a cozinhar. O “uso justo” seria como se o chef comprasse livros de receitas para *aprender* as técnicas, sem copiar os pratos. A lei americana poderia permitir isso. O problema da Anthropic é que, em vez de comprar os livros, ela foi a uma “loja de cópias piratas” para obtê-los de graça. O juiz do caso sinalizou que, mesmo que o “aprendizado” da IA pudesse ser considerado justo, a forma como a empresa obteve seu material de estudo foi ilegal. Não se pode construir uma inovação legítima a partir de material roubado.

Um precedente que abala o Vale do Silício

O acordo estabelece um precedente poderoso. Além do pagamento bilionário, que resultará em uma média de 3 mil dólares por livro para os autores, a Anthropic foi obrigada a apagar todas as cópias piratas de seus servidores. Isso impede que a empresa continue a se beneficiar do material ilícito no futuro.

“É o primeiro caso de recuperação de direitos autorais em tempos de IA”, comemorou o advogado de acusação, Justin Nelson. A decisão reacende o debate global sobre como conciliar o avanço tecnológico com a proteção da propriedade intelectual. A partir de agora, as empresas de IA terão que negociar e pagar pelo conteúdo que usam para treinar seus modelos, o que pode alterar fundamentalmente a economia por trás da tecnologia mais disruptiva do século e criar um novo e bilionário mercado de licenciamento de dados.

Da redação com informações da revista VEJA

Redação do Movimento PB [MGN-OOG-06092025-091045-A3B9C2-15P]