En una decisión histórica que podría remodelar el futuro de la inteligencia artificial y la ley de derechos de autor, un juez federal de los Estados Unidos dictaminó que Anthrope no violó la ley al usar libros con derechos de autor para capacitar sus sistemas.
Pero antrópico, la firma de IA detrás del chatbot Claude, sin embargo, no está completamente fuera del gancho; Todavía podría enfrentar sanciones rígidas por cómo manejaba esos libros.
El fallo llegó el lunes por la noche del juez de distrito estadounidense William Alsup en San Francisco, quien descubrió que la capacitación de Anthrope de su modelo de IA utilizando las obras de los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson califican como un uso justo.
Esta doctrina, que permite el uso limitado de contenido con derechos de autor sin permiso, jugó un papel central en la decisión de Alsup, uno de los primeros en abordar el uso justo en la era de la IA generativa.
"Al igual que cualquier lector que aspirara a ser escritor, los modelos de lenguaje grande de AI (modelos de idiomas de IA) entrenaron sobre trabajos para no correr por delante y replicarlos o suplantarlos, sino para girar una esquina dura y crear algo diferente", escribió Alsup.
Mientras Alsup se puso del lado de Anthrope con respecto a su uso de los libros para la capacitación de IA, tenía claro que la compañía sobrepasó los límites legales cuando almacenaba más de 7 millones de títulos pirateados en lo que llamó una "biblioteca central". Eso, dijo el juez, no fue de uso justo.
Se ha programado un juicio para diciembre para determinar qué daños, si los hay, Anthrope le debe a los autores. Según la ley de derechos de autor de los Estados Unidos, los daños por infracción intencional pueden alcanzar hasta $ 150,000 por trabajo.
Anthrope aún no ha comentado públicamente sobre el fallo, pero el resultado divide el caso en dos: la parte de entrenamiento está protegida y el almacenamiento no lo está.
El caso es parte de una ola más amplia de demandas de autores y medios de comunicación que se dirigen a compañías como Openi, Meta y Microsoft sobre cómo están construyendo sus sistemas de IA. La pregunta en el núcleo: ¿deberían permitirse a estas compañías usar material con derechos de autor, a menudo sin consentimiento, para desarrollar herramientas que, de alguna manera, compitan con los creadores originales?
El fallo de Alsup da un impulso a los desarrolladores de IA, muchos de los cuales argumentan que sus modelos están produciendo contenido nuevo y transformador y no deberían verse obligados a pagar a todos los titulares de derechos de autor cuyo trabajo se usó en el camino.
"Al igual que cualquier lector que esperara convertirse en escritor, los modelos de Anthrope fueron entrenados en estos libros para no copiarlos, sino para crear algo completamente nuevo".
Alsup.
Anthrope le había dicho a la Corte que copiar los libros era esencial para estudiar estilos de escritura ytracelementos sin policías, como la estructura y el tono, para ayudar a su IA a crear contenido novedoso.
La compañía argumentó que este tipo de aprendizaje en realidad promueve la creatividad humana, algo que se supone que la ley de derechos de autor debe alentar.
Pero Alsup también criticó a Anthrope por recopilar copias digitales pirateadas de los libros. Si bien la compañía había insistido en que la fuente del material no importaba, Alsup no estuvo de acuerdo con StronGly.
En su fallo, dijo: "Esta orden duda de que cualquier infractor acusado podría cumplir con su carga de explicar por qué descargar copias de origen de sitios piratas que podría haber comprado o acceder de otra manera legalmente era razonablemente necesario para cualquier uso justo posterior".
Esencialmente, si bien el uso final podría protegerse, cómo el antrópico tenía en sus manos el material no. Esa distinción podría dar forma a cómo las empresas de IA recopilan datos de capacitación en el futuro y potencialmente fomentaron más su abastecimiento de datos ético, o al menos legal.
Con más demandas por derechos de autor alineadas contra las empresas de IA, esta decisión podría establecer una precisión dent . El juicio de diciembre ahora decidirá si el enfoque de Anthrope para almacenar el contenido merece sanciones financieras y, de ser así, qué tan empinados deberían ser.
Cable de diferencia de clave : la herramienta secreta que los proyectos de cifrado utilizan para obtener cobertura de medios garantizada