El artista que inspira miles de obras generadas por IA: “Empieza a parecer una amenaza”
November 18, 2022 Noticias , TecnologíaEl nombre de Greg Rutkowski aparece más de 90.000 veces en Léxica, una web que rastrea más de 10 millones de imágenes e indicaciones generadas del generador de arte mediante IA Stable Diffusion. El resultado plantea cuestiones complejas para la ética y los artistas ya han alzado la voz.
Seguramente ya habrás visto en internet imágenes espectaculares que han sido generadas por inteligencia artificial (IA). Si es así, existe una alta probabilidad de que estén basadas en las obras de Greg Rutkowski.
Rutkowski es un artista digital polaco que emplea estilos de pintura clásica para crear paisajes de fantasía. Ha realizado ilustraciones para videojuegos como Horizon Forbidden West de Sony, Anno de Ubisoft, Dungeons & Dragons, y Magic: The Gathering. Sin embargo, de un momento a otro, se ha convertido en un gran éxito en el nuevo universo de la IA que genera imágenes a partir de texto.
Ahora, su peculiar estilo es uno de los más utilizados en el nuevo generador de arte de IA de código abierto bautizado como Stable Diffusion, que fue lanzado a finales del pasado mes de agosto. Esta herramienta, junto con otros modelos populares de IA de generación de imágenes, permite que cualquier persona cree fotografías impresionantes basadas en unas simples directrices de texto.
Por ejemplo, si usted escribe “un mago con espada con un orbe resplandeciente de fuego mágico lucha contra un dragón feroz Greg Rutkowski“, el sistema generará algo que se parece a las obras al estilo de Rutkowksi.
Sin embargo, estos programas de código abierto se construyen extrayendo imágenes de Internet, a menudo sin el permiso y la atribución adecuada a los artistas. Como resultado, plantean cuestiones difíciles sobre la ética y derechos de autor. Y los artistas como Rutkowski ya han aguantado bastante.
El nombre de Rutkowski se ha utilizado unas 93.000 veces, según el sitio web Lexica, que rastrea más de 10 millones de imágenes e indicaciones de texto generadas por Stable Diffusion. Algunos de los artistas más famosos del mundo, como Miguel Ángel, Pablo Picasso y Leonardo da Vinci, se mencionaron alrededor de 2.000 veces cada uno o incluso menos. El nombre de Rutkowski también aparece miles de veces en el Discord de otro generador de imágenes a partir de texto, Midjourney.
Rutkowski se sorprendió al principio, pero pensó que eso podría ser una buena manera de llegar a nuevas audiencias. Luego introdujo su nombre para ver si se había publicado una obra en la que había trabajado antes. La búsqueda online encontró trabajos que llevaban su nombre pero que no eran suyos.
“Ha pasado sólo un mes. ¿Qué ocurrirá en un año? Seguramente no podré encontrar mi trabajo allí porque Internet se llenará de obras de arte creadas por la IA. Eso es preocupante“, señala Rutkowski.
Stability.AI, la empresa que construyó Stable Diffusion, entrenó su modelo en el conjunto de datos LAION-5B, creado por la organización sin ánimo de lucro alemana LAION. LAION hizo el conjunto de datos y lo redujo filtrando las imágenes y dejando fuera las que tenían marcas de agua y las que no eran estéticas, como las imágenes de los logotipos, explica el tecnólogo y escritor Andy Baio, que descargó y analizó algunos de los datos de Stable Diffusion. Baio analizó 12 millones de los 600 millones de imágenes utilizadas para entrenar al modelo y descubrió que una gran parte de ellas provenían de distintos sitios web como Pinterest y sitios de compras de arte como Fine Art America.
Muchas de las obras de arte de Rutkowski han sido extraídas de ArtStation, un sitio web donde un gran número de artistas suben sus portfolios online. Su popularidad en el mundo de la IA se debe a varias razones.
En primer lugar, su estilo fantástico y etéreo es genial. También es prolífico y muchas de sus ilustraciones están disponibles online con una calidad suficientemente alta de tal modo que hay numerosos ejemplos para elegir. Uno de los primeros generadores de imágenes basadas en texto denominado Disco Diffusion ofreció a Rutkowski como ejemplo.
Rutkowski también ha agregado texto alternativo en inglés que aparece al descargar su trabajo online. Estas descripciones de las imágenes son útiles para las personas con discapacidades visuales que usan software de lectura de pantalla y también ayudan a los motores de búsqueda a clasificar las imágenes. Esto también las vuelve fáciles de reunir, y el modelo de IA sabe qué imágenes son relevantes dependiendo de las indicaciones de texto.
Stability.AI lanzó su modelo de forma gratuita y permite que cualquier persona lo use con fines comerciales o no comerciales, aunque el CTO de Stability.AI, Tom Mason, indica que el acuerdo de licencia de Stable Diffusion prohíbe explícitamente que las personas usen el modelo o sus derivados de una manera que infrinja cualquier ley o reglamento. Esto coloca la responsabilidad en los usuarios.
Algunos artistas podrían haber salido perjudicados en el proceso
Otros artistas, además de Rutkowski, se han sorprendido por la aparente popularidad de su trabajo en los generadores de imágenes basadas en texto, y algunos ya están contraatacando. La ilustradora Karla Ortiz, de San Francisco (EE UU), que encontró su trabajo en el conjunto de datos de Stable Diffusion, ha estado trabajando en la concienciación sobre los problemas relacionados con el arte de la IA y los derechos de autor.
Los artistas aseguran que corren el riesgo de perder sus ingresos a medida que las personas comienzan a usar con fines comerciales las imágenes generadas por IA basadas en el material protegido por derechos de autor. Sin embargo, también se trata de algo mucho más personal, según Ortiz, quien argumenta que, debido a que el arte está tan estrechamente vinculado a una persona, eso podría generar problemas de privacidad y de protección de datos.
“Hay una alianza que ha crecido dentro de las industrias artísticas para descubrir cómo abordar o mitigar esto”, resalta Ortiz. El grupo aún se encuentra en sus primeros días de movilización, lo que podría implicar presiones para la creación de nuevas políticas o regulaciones.
Una sugerencia es que los modelos de IA se podrían entrenar con las imágenes de dominio público, y las empresas de inteligencia artificial podrían colaborar con los museos y artistas, propone Ortiz.
“No se trata solo de los artistas. También incluye a los fotógrafos, modelos, actores y actrices, directores cinematográficos o cineastas. Cualquier tipo de profesional de artes visuales tiene que lidiar en la actualidad con esta cuestión“, resalta.
Actualmente, los artistas no tienen la opción de no participar en la base de datos o de eliminar su trabajo. La representante Carolyn Henderson de su esposo artista, Steve Henderson, cuyo trabajo también estaba en la base de datos, afirmó que había enviado un correo electrónico a Stability.AI para pedir que se eliminara el trabajo de su marido, pero la solicitud “no fue admitida ni respondida“.
“La IA de código abierto es una gran innovación, y apreciamos que haya preguntas abiertas y diferentes opiniones jurídicas. Esperamos que se resuelvan con el tiempo, a medida que la IA se vuelva más omnipresente y los diferentes grupos lleguen a un consenso sobre cómo equilibrar los derechos individuales y la investigación esencial de IA/ML”, afirma Mason de Stability.AI. “Nos esforzamos por encontrar el equilibrio entre innovar y ayudar a la comunidad”.
Mason anima a cualquier artista que no quiera que sus obras estén en el conjunto de datos a ponerse en contacto con LAION, que es una entidad independiente de su start-up. Sin embargo, LAION no ha respondido a una solicitud de comentarios.
Los artistas con sede en Berlín (Alemania) Holly Herndon y Mat Dryhurst trabajan en distintas herramientas para ayudar a los artistas a optar por no participar en los conjuntos de datos de entrenamiento. Lanzaron un sitio llamado Have I Been Trained, que permite a los artistas comprobar si su trabajo se encuentra entre los 5.800 millones de imágenes en el conjunto de datos que se utilizó para entrenar Stable Diffusion y Midjourney. Algunas comunidades de arte online, como Newgrounds, ya están tomando una posición clara y han prohibido explícitamente las imágenes generadas por IA.
Una iniciativa del sector denominada Iniciativa de autenticidad de contenido, que incluye a Adobe, Nikon y el New York Times, está desarrollando un estándar abierto que crearía una especie de marca de agua en el contenido digital para demostrar su autenticidad. Esto podría ayudar a combatir la desinformación y garantizar que los creadores digitales obtengan la atribución adecuada.
“También podría ser una forma en la que los creadores o titulares de propiedad intelectual puedan hacer valer la propiedad de los medios que les pertenecen o los medios artificiales que se han creado con algo que les pertenece”, señala la experta en deepfakes y medios sintéticos Nina Schick.
Pagar por jugar
El arte generado por IA plantea complicadas cuestiones jurídicas. En Reino Unido, donde se encuentra Stability.AI, extraer imágenes de internet sin el consentimiento del artista para entrenar una herramienta de IA podría ser una infracción de derechos de autor, afirma el abogado de la firma Pinsent Masons Gill Dennis. Los trabajos con derechos de autor se pueden usar para entrenar una IA bajo un “uso justo”, pero solo para fines no comerciales. Aunque Stable Diffusion es de uso gratuito, Stability.AI también vende acceso premium al modelo a través de una plataforma llamada DreamStudio.
Reino Unido, que quiere potenciar el desarrollo nacional de la IA, tiene la intención de cambiar las leyes para dar a los desarrolladores de IA un mayor acceso a los datos protegidos por derechos de autor. Con estos cambios, los programadores podrían extraer obras protegidas por derechos de autor para entrenar sus sistemas de IA con fines comerciales y no comerciales.
Si bien los artistas y otros titulares de derechos no podrán optar por no participar en este régimen, sí que podrán elegir dónde poner a disposición sus obras. La comunidad artística podría terminar pasando a un modelo de pago por reproducción o suscripción como el que se usa en las industrias del cine y de la música.
“El riesgo, por supuesto, sería que los titulares de los derechos simplemente se nieguen a poner a disposición sus obras, lo que debilitaría la propia razón para extender el uso justo en el espacio de desarrollo de IA en primer lugar“, señala Dennis.
En EE UU, LinkedIn perdió un caso en el tribunal de apelaciones, que dictaminó la primavera pasada que extraer los datos disponibles públicamente de distintas fuentes en internet no es una violación de la Ley de Abuso y Fraude Informático. Google también ganó un caso contra los autores que se opusieron a que la empresa pusiera sus obras protegidas por derechos de autor en Google Books.
Rutkowski destaca que no culpa a las personas que usan su nombre como indicación de texto para generar imágenes. Para esas personas, “es un experimento genial”, concluye el artista, “pero para mí y para muchos otros artistas, esto empieza a parecer una amenaza para nuestras carreras“.