Un Juez Federal Determina que el Entrenamiento de IA es un 'Uso Justo' en el Caso de Derechos de Autor de Anthropic

Un juez federal en San Francisco ha dictaminado que entrenar un modelo de IA con obras protegidas por derechos de autor sin un permiso específico no constituye una violación de la ley de derechos de autor.
El juez de distrito de EE.UU. William Alsup afirmó que la empresa de IA Anthropic podría alegar una defensa de “uso justo” contra reclamaciones de derechos de autor por entrenar sus modelos de IA Claude con libros protegidos por derechos. Sin embargo, el juez también determinó que era importante cómo se habían obtenido esos libros.
Alsup respaldó la afirmación de Anthropic de que era “uso justo” para la empresa comprar millones de libros y luego digitalizarlos para su uso en el entrenamiento de IA. Sin embargo, el juez dijo que no era aceptable que Anthropic también hubiese descargado millones de copias pirateadas de libros de internet y mantuviera una biblioteca digital de estas copias pirateadas.
El juez ordenó un juicio separado sobre el almacenamiento que Anthropic hizo de esos libros pirateados, lo que podría determinar la responsabilidad de la empresa y cualquier daño relacionado con esa posible infracción. El juez aún no ha decidido si otorgar el estatus de acción de clase al caso, lo que podría aumentar drásticamente los riesgos financieros para Anthropic si se determina que ha infringido los derechos de los autores.
Al determinar que era "uso justo" para Anthropic entrenar sus modelos de IA con libros escritos por tres autores—Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—que habían presentado una demanda contra la empresa de IA por violaciones de derechos de autor, Alsup abordó una cuestión que ha estado en el aire desde antes de que ChatGPT de OpenAI impulsara el auge de la IA generativa en 2022: ¿Se pueden usar datos con derechos de autor para entrenar modelos de IA generativa sin el consentimiento del propietario?
Decenas de demandas relacionadas con la IA y derechos de autor se han presentado en los últimos tres años, la mayoría de las cuales giran en torno al concepto de uso justo, una doctrina que permite el uso de material protegido por derechos de autor sin permiso si el uso es lo suficientemente transformador, lo que significa que debe servir a un nuevo propósito o agregar un nuevo significado, en lugar de simplemente copiar o sustituir la obra original.
La decisión de Alsup puede sentar un precedente para otros casos de derechos de autor—aunque también es probable que muchas de estas resoluciones sean apeladas, lo que significa que pasará tiempo hasta que haya claridad sobre la IA y los derechos de autor en EE.UU.
Según la decisión del juez, el uso que hizo Anthropic de los libros para entrenar a Claude fue “excesivamente transformador” y constituyó “uso justo bajo la Sección 107 de la Ley de Derechos de Autor”. Anthropic le dijo al tribunal que su entrenamiento de IA no solo era permisible, sino que se alineaba con el espíritu de la ley de derechos de autor de EE.UU., que argumentó que “no solo permite, sino que fomenta” tal uso porque promueve la creatividad humana. La empresa dijo que copió los libros para “estudiar la escritura de los demandantes, extraer información no protegible y usar lo aprendido para crear tecnología revolucionaria.
Si bien se puede considerar “uso justo” entrenar modelos de IA con datos protegidos por derechos de autor, la acción separada de Anthropic de construir y almacenar un repositorio buscable de libros pirateados no lo es, dictaminó Alsop. Alsup observó que el hecho de que Anthropic posteriormente comprara un libro del que primero robó una copia de internet “no absolverá su responsabilidad por el robo, pero puede afectar la extensión de los daños legales.”
El juez también mostró escepticismo ante el reconocimiento de Anthropic de que había recurrido a descargar libros pirateados para ahorrar tiempo y dinero en la construcción de sus modelos de IA. “Esta orden duda que cualquier infractor acusado podría alguna vez cumplir con su carga de explicar por qué descargar copias originales de sitios piratas que podría haber comprado o accedido legalmente fue en sí mismo razonablemente necesario para cualquier posterior uso justo”, dijo Alsup.
La naturaleza “transformadora” de las salidas de la IA es importante, pero no es lo único que importa cuando se trata de uso justo. Hay tres factores más a considerar: ¿qué tipo de trabajo es? (las obras creativas tienen más protección que las factual), ¿cuánto del trabajo se utiliza? (cuanto menos, mejor), y si el nuevo uso afecta al mercado de la obra original.
Por ejemplo, existe el caso en curso contra Meta y OpenAI por parte de la comediante Sarah Silverman y otros dos autores, quienes presentaron demandas por infracción de derechos de autor en 2023 alegando que versiones pirateadas de sus obras se utilizaron sin permiso para entrenar modelos de lenguaje de IA. Los demandados argumentaron recientemente que el uso entra en la doctrina del uso justo porque los sistemas de IA “estudian” obras para “aprender” y crear contenido nuevo y transformador.
El juez de distrito federal Vince Chhabria señaló que, incluso si esto es cierto, los sistemas de IA están “cambiando drásticamente, incluso diría que obliterando, el mercado del trabajo de esa persona.” Sin embargo, también cuestionó a los demandantes, diciendo que sus abogados no habían proporcionado suficientes pruebas sobre los posibles impactos en el mercado.
La decisión de Alsup difiere marcadamente de la de Chhabria en este punto. Alsup dijo que, si bien es innegablemente cierto que Claude podría generar una competencia aumentada para los trabajos de los autores, este tipo de “desplazamiento competitivo o creativo no es el tipo de desplazamiento competitivo o creativo que le preocupa la Ley de Derechos de Autor”. El propósito del Copyright es alentar la creación de nuevas obras, no proteger a los autores de la competencia, dijo Alsup, y comparó las objeciones de los autores a Claude con el temor de que enseñar a los niños a escribir bien podría resultar en una explosión de libros en competencia.
Alsup también señaló en su fallo que Anthropic había incorporado “guardrails” en Claude que estaban destinados a prevenir que produzca salidas que plagiaran directamente los libros con los que había sido entrenado.
Ninguno de los representantes de Anthropic ni los abogados de los demandantes respondieron de inmediato a las solicitudes de comentarios sobre la decisión de Alsup.
Para más contenido especializado, suscríbete a nuestro boletín informativo
Comments ()