El entrenamiento de IA de Anthrope se considera ‘uso justo’ en el fallo de derechos de autor emblemático


¿Cuál es la historia?
Antrópicouna empresa líder de inteligencia artificial (IA) respaldada por Amazonas Y Alphabet, ha ganado una gran batalla legal. Un juez federal en San Francisco dictaminó que el uso de libros con derechos de autor de la compañía para capacitar a su sistema de IA era legal bajo la ley de derechos de autor de los Estados Unidos. El fallo provino del juez de distrito estadounidense William Alsup, quien dijo que las acciones de Anthrope constituían «uso justo» de las obras de los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson.
Sobre la demanda presentada por los autores
La decisión clave se produce después de que los tres autores presentan una demanda colectiva contra Anthrope el año pasado. Alegaron que la compañía utilizó versiones pirateadas de sus libros sin permiso o compensación para capacitar a su modelo Claude AI. El caso es una de las muchas demandas similares presentadas por autores, organizaciones de medios y otros propietarios de derechos de autor contra gigantes tecnológicos como Opadai, Microsofty meta plataformas sobre sus prácticas de capacitación de IA.
La doctrina de uso justo permite el uso de obras con derechos de autor sin permiso
La doctrina de uso justo, que permite el uso de trabajos con derechos de autor sin permiso en ciertas circunstancias, es una defensa clave para las empresas tecnológicas. Esta decisión es la primera en abordar el uso justo en el contexto de la IA generativa. Anthrope había argumentado que su entrenamiento de IA promueve la creatividad humana y transforma el material con derechos de autor en nuevo contenido. La compañía afirmó que copió los libros para «estudiar la escritura de los demandantes, extraer información que no se puede ver con el mismo y usar lo que aprendió para crear tecnología revolucionaria».
Tecnología transformadora
El fallo podría tener implicaciones de largo alcance para el futuro de la IA
El juez Alsup estuvo de acuerdo con Anthrope que su entrenamiento era «extremadamente transformador». Comparó los grandes modelos de idiomas (LLM) de la compañía con un lector que aspira a ser escritor, diciendo que estaban capacitados para no replicar o reemplazar obras, sino para crear algo diferente. Este fallo podría tener implicaciones de largo alcance para el futuro de la IA y la ley de derechos de autor en los Estados Unidos, así como en otros países.
El juez Alsup dictaminó contra antrópico para almacenar obras con derechos de autor
Mientras que el juez Alsup dictaminó a favor de Anthrope con respecto a la capacitación de IA, descubrió que el almacenamiento de los libros de los autores en una «biblioteca central» de la compañía violaba sus derechos de autor y no era de uso justo.