Dos Cortes Deciden Sobre la IA Generativa y el Uso Justo - Una Acerta

Dos Cortes Deciden Sobre la IA Generativa y el Uso Justo - Una Acerta

Las cosas se están acelerando en los casos legales sobre IA generativa, con dos opiniones judiciales publicadas recientemente sobre un tema que moldeará el futuro de la IA generativa: si el entrenamiento de modelos de IA generativa con obras protegidas por derechos de autor se considera un uso justo. Una dicta correctamente; la otra, no tanto, pero afortunadamente de una manera que los tribunales futuros pueden y deben descartar.

La pregunta central

La pregunta central en ambos casos fue si el uso de obras protegidas por derechos de autor para entrenar Modelos de Lenguaje Grande (LLMs) utilizados en chatbots de IA es un uso justo legal. Según la Ley de Derechos de Autor de EE.UU., responder a esa pregunta requiere que los tribunales consideren:

  1. whether the use was transformative;
  2. la naturaleza de las obras (¿Son más creativas que fácticas? ¿Publicadas hace mucho tiempo?)
  3. cuánto del original fue utilizado; y
  4. el daño al mercado de la obra original.

En ambos casos, los jueces se centraron en los factores (1) y (4).

El enfoque correcto

En Bartz contra Anthropic, tres autores demandaron a Anthropic por usar sus libros para entrenar su chatbot Claude. En su orden al decidir partes del caso, el juez William Alsup confirmó lo que EFF ha dicho durante años: el uso justo protege el uso de obras protegidas para entrenamiento porque, entre otras cosas, entrenar IA generativa es “transformador—espectacularmente así” y cualquier daño alegado al mercado para el original es pura especulación. Así como copiar libros o imágenes para crear motores de búsqueda es justo, el tribunal sostiene que copiar libros para crear un nuevo y “transformador” LLM y tecnologías relacionadas también está protegido:

[U]sar obras protegidas para entrenar LLMs para generar nuevo texto es fundamentalmente transformador. Como cualquier lector que aspira a ser escritor, los LLMs de Anthropic se entrenan en obras no para adelantarse y replicarlas o suplantarlas, sino para girar en una esquina y crear algo diferente. Si este proceso de entrenamiento requirió razonablemente hacer copias dentro del LLM o de otro modo, esas copias estaban involucradas en un uso transformador.

Importante, Bartz rechazó los intentos de los titulares de derechos de autor de afirmar que cualquier modelo capaz de generar nuevo material escrito que pudiera competir con obras existentes emulando sus “temas generales”, “puntos sustantivos” o “gramática, composición y estilo” era una máquina de infracción. Como reconoció correctamente el tribunal, construir modelos de IA generativa que crean nuevas obras está más allá de “cualquier cosa que cualquier propietario de derechos de autor podría esperar controlar.”

Un error en el uso justo

Kadrey es otra demanda de autores contra el desarrollador de un modelo de IA, en este caso el chatbot 'Llama' de Meta. Los autores en Kadrey pidieron al tribunal que dictaminara que el uso justo no se aplicaba.

Gran parte del fallo de Kadrey del juez Vince Chhabria es dicta—lo que significa que la opinión dedica muchos párrafos a lo que cree que podría justificar un fallo a favor de los autores demandantes, si solo hubieran logrado presentar hechos diferentes (en lugar de pura especulación). El tribunal luego falló a favor de Meta porque los demandantes solo ofrecieron especulaciones.

Pero comete varios errores en el camino hacia el resultado correcto. Al principio, el fallo proclama ampliamente que entrenar IA sin comprar una licencia para usar cada pieza de material de entrenamiento protegido por derechos de autor será “ilegal” en “la mayoría de los casos.” El tribunal afirmó que el uso justo generalmente no se aplicará a los usos de entrenamiento de IA, a pesar de que el entrenamiento es un proceso “altamente transformador”, debido a escenarios hipotéticos de “dilución del mercado” donde la competencia de obras generadas por IA podría reducir el valor de los libros utilizados para entrenar el modelo de IA.

Esa teoría, a su vez, depende de tres premisas erróneas. Primero, que el factor más importante para determinar el uso justo es si el uso podría causar daño al mercado. Eso no es correcto. Desde su opinión seminal de 1994 en Cambell contra Acuff-Rose, la Corte Suprema ha dejado muy claro que ningún factor único controla el análisis de uso justo.

Segundo, que un desarrollador de IA normalmente buscaría entrenar un modelo completamente con un cierto tipo de obra y luego usar ese modelo para generar nuevas obras en el mismo género, que luego competirían con las obras en las que fue entrenado, causando daño al mercado para las obras originales. Como nota el fallo de Kadrey, no había evidencia de que Llama tuviera la intención de hacer algo así, ni lo harán la mayoría de los LLMs por las mismas razones discutidas en Bartz.

Tercero, como cuestión de derecho, los derechos de autor no prevén “dilución del mercado” a menos que las nuevas obras sean de otro modo infractoras. De hecho, todo el propósito de los derechos de autor es ser un motor para nueva expresión. Si esa nueva expresión compite con obras existentes, eso es una característica, no un error.

La IA generativa está provocando el tipo de pánicos tecnológicos que hemos visto antes; entonces, como ahora, las opiniones de uso justo pensadas ayudaron a asegurar que la ley de derechos de autor sirviera a la innovación y la creatividad. La IA generativa plantea una serie de preocupaciones serias sobre las prácticas laborales justas y la desinformación, pero los derechos de autor no fueron diseñados para abordar esos problemas. Intentar obligar a la ley de derechos de autor a desempeñar esos roles solo perjudica usos importantes y legales de esta tecnología.

En línea con esa tradición, los tribunales que decidan sobre el uso justo en otros casos de derechos de autor de IA deberían mirar a Bartz, no a Kadrey.