Stability AI planea permitir a los artistas optar por no participar en el entrenamiento de imagen Stable Diffusion 3


Agrandar / Una imagen generada por IA de una persona que sale de un edificio, rompiendo la convención de persianas verticales. Ars Technica el miércoles, estabilidad AI Anunciado Permitiría a los artistas eliminar su trabajo del conjunto de datos de entrenamiento para un próximo lanzamiento de Stable Diffusion 3.0. El movimiento se presenta como una defensa de los artistas llamada Spawning tuiteó que Stability AI cumpliría con las solicitudes de exclusión voluntaria recopiladas en su sitio web Have I Been Trained. Sin embargo, los detalles de la implementación del plan siguen siendo incompletos y poco claros. En pocas palabras: Stable Diffusion, un modelo de síntesis de imágenes de IA, ganó su capacidad de generar imágenes al «aprender» de un gran conjunto de datos de imágenes extraídas de Internet sin pedir permiso a los titulares de derechos. Algunos artistas se molestan por esto porque la difusión estable crea imágenes que pueden competir con los artistas humanos en cantidades ilimitadas. Hemos estado siguiendo el debate ético desde el lanzamiento público de Stable Diffusion en agosto de 2022. Para comprender cómo se pretende que funcione el sistema de exclusión voluntaria de Stable Diffusion 3, creamos una cuenta en Have I Been Trained y creamos una imagen del Atari Pong cargado folleto de arcade (que no poseemos). Después de que el motor de búsqueda del sitio encontró coincidencias en la base de datos de imágenes de la red abierta de inteligencia artificial a gran escala (LAION), hicimos clic con el botón derecho en varias miniaturas individualmente y seleccionamos «Rechazar esta imagen» en un menú emergente. Una vez marcadas, pudimos ver las imágenes en una lista de imágenes que marcamos como deshabilitadas. No hemos experimentado ningún intento de verificar nuestras identidades o tener ningún control legal sobre las imágenes que supuestamente «desaprobamos».
Ampliar / Una captura de pantalla de las imágenes de «exclusión voluntaria» que no poseemos en el sitio web Have I Been Trained. Las imágenes con símbolos de banderas han sido «dadas de baja». Y actualmente no hay forma de rechazar grandes grupos de imágenes o las muchas copias de la misma imagen que pueden estar en el conjunto de datos. El sistema, tal como se implementa actualmente, plantea preguntas que se han abordado en los hilos de anuncios. Gorjeo y YouTube. Si, por ejemplo, Stability AI, LAION o Spawning hicieran el enorme esfuerzo de verificar legalmente la propiedad para controlar quién rechaza las imágenes, ¿quién pagaría el trabajo involucrado? ¿Les confiaría la gente a estas organizaciones la información personal necesaria para verificar sus derechos e identidades? ¿Y por qué incluso tratar de verificarlos cuando el CEO de Stability dice que no se requiere permiso legalmente para usarlos? Un video de Spawning anunciando la opción de exclusión. Además, el artista está obligado a registrarse en un sitio web con un conexión no vinculante enviar a Stability AI o LAION y luego esperar que se conceda su solicitud parece impopular. En respuesta a las declaraciones sobre la aprobación de Spawning en su video de anuncio, algunas personas han escrito que el procedimiento de exclusión voluntaria no cumple con la definición de consentimiento del Reglamento General Europeo de Protección de Datos, que establece que el consentimiento debe darse activamente y no asumirse por defecto («El consentimiento debe darse libremente, específico, informado e inequívoco. Um seek consentimiento voluntario, debe ser voluntario»). Esta es la dirección en la que muchos se dirigen pelearse que el proceso debe ser solo opcional y todas las ilustraciones deben excluirse de la capacitación de IA de forma predeterminada. Actualmente, parece que Stability AI opera bajo las leyes estadounidenses y europeas para entrenar Stable Diffusion utilizando imágenes recopiladas sin permiso (aunque este problema aún no se ha probado en los tribunales). Pero la compañía también está tomando medidas para reconocer el debate ético que ha provocado una gran protesta contra el arte generado por IA en línea. ¿Existe un equilibrio que pueda satisfacer a los artistas y permitir el avance en la tecnología de síntesis de imágenes de IA? Por ahora, Emad Mostaque, CEO de Stability, está abierto a sugerencias Pío«El equipo @laion_ai está muy abierto a recibir comentarios y quiere crear mejores conjuntos de datos para todos y está haciendo un gran trabajo. Por nuestra parte, creemos que esta es una tecnología transformadora y estamos entusiasmados de trabajar con todos los lados y tratar de ser lo más transparentes posible. Todo se mueve y madura rápidamente».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.