Artistas presentan demanda colectiva contra fabricantes de generadores de imágenes de IA


Agrandar / Un martillo generado por computadora se cierne sobre una computadora portátil. Algunos artistas han iniciado una batalla legal contra el presunto robo de miles de millones de imágenes con derechos de autor utilizadas para entrenar a los generadores de arte de IA y reproducir estilos únicos sin compensar a los artistas ni pedir su consentimiento. Un grupo de artistas representados por el bufete de abogados Joseph Saveri ha presentado una demanda colectiva federal de EE. UU. en San Francisco contra las empresas de arte de inteligencia artificial Stability AI, Midjourney y DeviantArt por presuntas violaciones de la Ley de derechos de autor del milenio digital, violaciones de los derechos de publicidad y competencia ilegal. Las actrices -Sarah Andersen, Kelly McKernan, Karla Ortiz- «tratan de poner fin a esta flagrante y masiva violación de sus derechos antes de que sus profesiones sean aniquiladas por un programa informático impulsado únicamente por su arduo trabajo», según el texto oficial de la demanda presentada en la corte. Herramientas como Stable Diffusion, Stability AI’s Midjourney o el generador DreamUp en DeviantArt permiten a los usuarios escribir oraciones para crear obras de arte que se asemejan a artistas vivos. Desde la aparición generalizada de la síntesis de imágenes de IA el año pasado, las obras de arte generadas por IA han sido muy controvertidas entre los artistas, lo que ha provocado protestas y guerras culturales en las redes sociales.
Ampliar / Una selección de imágenes generadas por Stable Diffusion. El conocimiento de cómo representarlos proviene de imágenes rayadas en Internet. Una ausencia notable de la lista de empresas nombradas en la denuncia es OpenAI, creadores del modelo de síntesis de imágenes DALL-E, que en abril de 2022 podría decirse que comenzó a rodar la bola en el arte generativo de IA convencional. A diferencia de Stability AI, OpenAI no ha revelado públicamente el contenido exacto de su conjunto de datos de entrenamiento y ha obtenido licencias comerciales de algunos de sus datos de entrenamiento de empresas como Shutterstock. A pesar de la controversia de la difusión estable, la legalidad del funcionamiento de los generadores de imágenes de IA no se ha probado en los tribunales, aunque el bufete de abogados Joesph Saveri está familiarizado con las acciones legales contra la IA generativa. En noviembre de 2022, la misma empresa presentó a GitHub por presunta infracción de derechos de autor sobre su herramienta de programación de inteligencia artificial Copilot.

Argumentos débiles, violaciones éticas

Agrandar / Una selección de retratos de robots creados por Stable Diffusion y encontrados en el motor de búsqueda Lexica. Alex Champandard, un analista de IA que hizo esto respaldado los derechos de los artistas sin negar directamente la tecnología de IA, criticó la nueva demanda en varios hilos en Twitter. Escribir, “No confío en los abogados que presentaron esta denuncia en base al contenido + cómo está escrito. Por lo tanto, el caso podría hacer más daño que bien». Sin embargo, Champandard cree que la demanda podría perjudicar a los posibles acusados: «Todo lo que digan las empresas en su defensa será usado en su contra». Según Champandard, hemos descubierto que la queja contiene varias declaraciones que pueden tergiversar cómo funciona la tecnología de síntesis de imágenes de IA. Por ejemplo, el cuarto párrafo de la Sección I establece: «Cuando Stable Diffusion se usa para generar imágenes a partir de indicaciones de sus usuarios, Stable Diffusion usa las imágenes de entrenamiento para generar lo que parecen ser nuevas imágenes a través de un proceso de software matemático. Estas imágenes ‘nuevas’ se basan completamente en las imágenes de entrenamiento y son trabajos derivados de las imágenes particulares en las que se basa Stable Diffusion al ensamblar una salida determinada. En última instancia, es solo una herramienta de collage compleja». En otra sección que intenta describir cómo funciona la síntesis de imágenes de difusión latente, los demandantes comparan erróneamente el modelo de IA entrenado con «un directorio de miles de millones de archivos JPEG que tienen archivos de imagen en su computadora», alegando que «un modelo de difusión entrenado puede hacer una copia de una de sus imágenes de entrenamiento». Durante el proceso de capacitación, Stable Diffusion se basó en una gran biblioteca de millones de imágenes rayadas. Con estos datos, su red neuronal «aprendió» estadísticamente cómo se ven ciertos estilos de imagen sin almacenar copias exactas de las imágenes vistas. Aunque en los raros casos de imágenes sobrerrepresentadas en el conjunto de datos (por ejemplo, la Mona Lisa) una especie de «sobreajuste«A veces, Stable Diffusion le permite escupir una representación precisa de la imagen original. En última instancia, cuando se entrenan adecuadamente, los modelos de difusión latente siempre producen nuevas imágenes y no crean collages ni duplican obras existentes, una realidad técnica que potencialmente socava el argumento de los demandantes sobre la infracción de derechos de autor, aunque sus argumentos sobre «obras derivadas» creadas por los generadores de imágenes de IA fueron creados es una pregunta abierta sin precedentes claros a nuestro conocimiento. Algunos de los otros puntos de queja, como la competencia ilegal (al duplicar el estilo de un artista y usar una máquina para reproducirlo) y la violación del derecho de publicidad (por parte de personas que solicitan obras de arte «al estilo» de artistas existentes sin permiso) son menos técnico y podría afianzarse en los tribunales se produce después de una ola de ira por la falta de consentimiento de los artistas que se sienten amenazados por los generadores de arte de IA. Los desarrolladores detrás de la síntesis de imágenes de IA se han apropiado de la propiedad intelectual para crear sus modelos sin el consentimiento del artista. Ya están siendo juzgados en el tribunal de la opinión pública, aunque finalmente se determine que se ajustan a la jurisprudencia establecida sobre la sobreexplotación de la información pública de Internet. «Las empresas que construyen grandes modelos que se basan en datos propietarios pueden salirse con la suya haciéndolo de forma privada». tuiteó Champandard, «pero hacerlo abiertamente *y* legalmente es muy difícil, o imposible». Si la demanda llega a los tribunales, los tribunales deben aclarar las distinciones entre violaciones éticas y presuntas de la ley. Los demandantes esperan demostrar que las empresas de IA se benefician económicamente y obtienen grandes ganancias del uso de imágenes con derechos de autor; Han pedido daños sustanciales y una orden permanente de cese y desistimiento para evitar que las supuestas empresas infractoras cometan más violaciones. Emad Mostaque, CEO de Stability AI, cuando se le pidió un comentario, respondió que la compañía no había recibido ninguna información sobre la demanda hasta el momento de la publicación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.