A expansão agressiva da Adobe na inteligência artificial enfrenta um revés legal significativo. A empresa é acusada de incorporar materiais literários piratas na sua infraestrutura de aprendizagem automática — uma ação que desencadeou uma ação coletiva centrada em violações de direitos de autor.
A Acusação Central
A autora Elizabeth Lyon, de Oregon, entrou com uma ação coletiva propondo que a Adobe utilizou cópias não autorizadas de livros, incluindo as suas próprias obras, como material de treino para o SlimLM, o modelo de linguagem especializado da empresa, projetado para aplicações móveis de processamento de documentos. Segundo documentos judiciais, essas obras literárias foram incorporadas sem o consentimento ou compensação do autor.
Como os Livros Piratas Entraram no Sistema da Adobe
O caminho para esse suposto uso indevido remonta ao SlimPajama-627B, um conjunto de dados públicos criado pela Cerebras e lançado em meados de 2023. A Adobe baseou-se nesse conjunto de dados para pré-treinar o SlimLM. No entanto, a ação judicial revela uma cadeia problemática: o próprio SlimPajama foi derivado do RedPajama, ao incorporar o Books3 — um vasto repositório contendo 191.000 obras publicadas.
A questão crítica: o Books3 supostamente contém material protegido por direitos de autor coletado sem a devida autorização. Quando a Adobe construiu sobre essa base comprometida, a empresa supostamente herdou essas violações de direitos autorais. Como observa a equipe jurídica de Lyon, o SlimLM tornou-se uma obra derivada contendo conteúdo literário não autorizado.
Um Padrão Emergente em Toda a Indústria
A Adobe dificilmente é a primeira empresa de tecnologia a enfrentar tais acusações. Os conjuntos de dados que alimentam os sistemas de IA modernos tornaram-se um campo minado de disputas de direitos autorais:
Modelo de Inteligência da Apple: Em setembro, a Apple foi processada por supostamente treinar seu sistema de IA com material proveniente do RedPajama sem compensar os detentores dos direitos
Práticas de Treinamento da Salesforce: Em outubro, ocorreu uma ação similar contra a Salesforce, acusando a empresa de usar conjuntos de dados RedPajama de forma inadequada
Acordo da Anthropic: Mais significativamente, a Anthropic concordou com um acordo de US$ 1,5 bilhões com autores em setembro, reconhecendo que tinha incorporado obras piratas no pipeline de treinamento do Claude
Por Que Isso Importa
A proliferação de modelos de IA exige quantidades enormes de dados textuais. Quando os desenvolvedores obtêm materiais de compilações como Books3 ou RedPajama sem verificar cuidadosamente a proveniência legal, criam riscos institucionais. Os processos repetidos sugerem que confiar nesses conjuntos de dados — por mais conveniente que seja — agora acarreta uma exposição legal substancial.
Para a Adobe e empresas similares, a mensagem está se tornando inevitável: negligenciar a origem dos dados de treinamento pode ser muito mais caro do que obter licenças legítimas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Adobe enfrenta um desafio legal devido ao uso não autorizado das obras dos autores no desenvolvimento de modelos de IA
A expansão agressiva da Adobe na inteligência artificial enfrenta um revés legal significativo. A empresa é acusada de incorporar materiais literários piratas na sua infraestrutura de aprendizagem automática — uma ação que desencadeou uma ação coletiva centrada em violações de direitos de autor.
A Acusação Central
A autora Elizabeth Lyon, de Oregon, entrou com uma ação coletiva propondo que a Adobe utilizou cópias não autorizadas de livros, incluindo as suas próprias obras, como material de treino para o SlimLM, o modelo de linguagem especializado da empresa, projetado para aplicações móveis de processamento de documentos. Segundo documentos judiciais, essas obras literárias foram incorporadas sem o consentimento ou compensação do autor.
Como os Livros Piratas Entraram no Sistema da Adobe
O caminho para esse suposto uso indevido remonta ao SlimPajama-627B, um conjunto de dados públicos criado pela Cerebras e lançado em meados de 2023. A Adobe baseou-se nesse conjunto de dados para pré-treinar o SlimLM. No entanto, a ação judicial revela uma cadeia problemática: o próprio SlimPajama foi derivado do RedPajama, ao incorporar o Books3 — um vasto repositório contendo 191.000 obras publicadas.
A questão crítica: o Books3 supostamente contém material protegido por direitos de autor coletado sem a devida autorização. Quando a Adobe construiu sobre essa base comprometida, a empresa supostamente herdou essas violações de direitos autorais. Como observa a equipe jurídica de Lyon, o SlimLM tornou-se uma obra derivada contendo conteúdo literário não autorizado.
Um Padrão Emergente em Toda a Indústria
A Adobe dificilmente é a primeira empresa de tecnologia a enfrentar tais acusações. Os conjuntos de dados que alimentam os sistemas de IA modernos tornaram-se um campo minado de disputas de direitos autorais:
Por Que Isso Importa
A proliferação de modelos de IA exige quantidades enormes de dados textuais. Quando os desenvolvedores obtêm materiais de compilações como Books3 ou RedPajama sem verificar cuidadosamente a proveniência legal, criam riscos institucionais. Os processos repetidos sugerem que confiar nesses conjuntos de dados — por mais conveniente que seja — agora acarreta uma exposição legal substancial.
Para a Adobe e empresas similares, a mensagem está se tornando inevitável: negligenciar a origem dos dados de treinamento pode ser muito mais caro do que obter licenças legítimas.