Adobe enfrenta un desafío legal por el uso no autorizado de obras de autores en el desarrollo de modelos de IA

robot
Generación de resúmenes en curso

El agresivo expansion de Adobe en inteligencia artificial enfrenta un importante revés legal. La compañía está acusada de incorporar materiales literarios pirateados en su infraestructura de aprendizaje automático, un movimiento que ha provocado una demanda colectiva centrada en violaciones de derechos de autor.

La Acusación Principal

La autora Elizabeth Lyon de Oregón ha presentado una demanda colectiva propuesta alegando que Adobe utilizó copias no autorizadas de libros, incluyendo sus propias obras, como material de entrenamiento para SlimLM, el modelo de lenguaje especializado de la compañía diseñado para aplicaciones de procesamiento de documentos móviles. Según los documentos judiciales, estas obras literarias fueron incorporadas sin el consentimiento ni la compensación de los autores.

Cómo los Libros Pirateados Llegaron al Sistema de Adobe

El camino hacia este supuesto uso indebido se remonta a SlimPajama-627B, un conjunto de datos públicos creado por Cerebras y lanzado a mediados de 2023. Adobe dependió de este conjunto de datos para preentrenar SlimLM. Sin embargo, la demanda revela una cadena problemática: SlimPajama en sí fue derivado de RedPajama al incorporar Books3, un vasto repositorio que comprende 191,000 obras publicadas.

El problema crítico: se informa que Books3 contiene material con derechos de autor que fue recopilado sin la autorización adecuada. Cuando Adobe construyó sobre esta base comprometida, la compañía supuestamente heredó estas violaciones de derechos de autor. Como señala el equipo legal de Lyon, SlimLM se convirtió en una obra derivada que contiene contenido literario no autorizado.

Un Patrón que Surge en Toda la Industria

Adobe no es la primera empresa tecnológica en enfrentar tales acusaciones. Los conjuntos de datos subyacentes que alimentan los sistemas de IA modernos se han convertido en un campo minado de disputas por derechos de autor:

  • Modelo de Inteligencia de Apple: En septiembre, Apple fue demandada por supuestamente entrenar su sistema de IA con material obtenido de RedPajama sin compensar a los titulares de derechos
  • Prácticas de Entrenamiento de Salesforce: En octubre, se presentó una demanda similar contra Salesforce, acusando a la compañía de usar conjuntos de datos de RedPajama de manera inapropiada
  • Acuerdo de Anthropic: Lo más destacado, Anthropic aceptó un acuerdo de 1.500 millones de dólares con autores en septiembre, reconociendo que había incorporado obras pirateadas en la pipeline de entrenamiento de Claude

Por Qué Esto Importa

La proliferación de modelos de IA requiere cantidades enormes de datos de texto. Cuando los desarrolladores obtienen material de compilaciones como Books3 o RedPajama sin verificar exhaustivamente la procedencia legal, crean un riesgo institucional. Las demandas repetidas sugieren que depender de estos conjuntos de datos—por muy conveniente que sea—ahora conlleva una exposición legal sustancial.

Para Adobe y empresas similares, el mensaje se vuelve ineludible: saltarse pasos en la obtención de datos de entrenamiento puede resultar mucho más costoso que obtener licencias legítimas.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)