“La inteligencia artificial generativa va a cambiar lo que significa ser humano”
August 9, 2023 El Mundo , NoticiasLa inteligencia artificial generativa está posicionada para transformar no solo la forma en que trabajamos: es posible que haya que redefinir nociones como la autoría y la creatividad en la nueva era del contenido generado por IA, plantea la experta Nina Schick.
Desde que OpenAI diera el pistoletazo de salida al furor por la inteligencia artificial generativa con el lanzamiento de ChatGPT, cada vez más compañías tecnológicas se han sumado a la carrera. OpenAI ya ha lanzado un sistema de IA conversacional más avanzado, GPT-4, y su herramienta de generación de imágenes DALL-E 2 ya se hace un hueco en el cine. Google saltó pronto al circuito con Bard, aunque no ha llegado a Europa hasta julio de este año. Ernie Bot, del gigante chino Baidu, se llevó un buen tropiezo. El último en entrar en la competición ha sido Meta con LLaMA 2, aunque hay indicios de que Apple no se hará de rogar. Además de los pesos pesados, start-ups como Stability AI también ganan terreno.
Mientras las big tech compiten para llevarse su parte del pastel, otros sectores públicos y privados ven a la IA generativa con más recelo. Desde que comenzó a popularizarse a través de los deepfakes, ha estado en el centro de una serie de preocupaciones que van desde la desinformación hasta la violencia sexual. Recientemente, esta tecnología fue al menos parcialmente responsable del fracaso de las negociaciones entre el sindicato de actores estadounidense SAG-AFTRA y la Alianza de Productores de Cine y Televisión (AMTPT), después de la propuesta al estilo Black Mirror presentada por los grandes estudios de Hollywood de crear clones digitales de actores mediante IA, cuya imagen podrían “utilizar para cualquier propósito para siempre”.
Las posibilidades de esta tecnología son tan vastas que parece que no habrá ninguna industria que no se vea afectada, ningún flujo de información que no corra peligro o ninguna supuesta capacidad estrictamente humana que no quede cuestionada. Para la experta en IA generativa, autora y fundadora de la firma de asesoría Tamang Ventures Nina Schick, la pregunta va más allá de las aplicaciones prácticas y se adentra en el existencialismo: “Es una tecnología que va a cambiar lo que significa ser humano”.
La inteligencia artificial generativa fue una de las 10 Tecnologías Emergentes de MIT Technology Review para 2023. ¿Qué hace que esta tecnología sea tan relevante y qué avance ha significado sobre otras aplicaciones de IA?
La IA tradicional se trata más de etiquetar o categorizar datos, pero la IA generativa puede crear nuevos datos. Al principio, la gente lo veía como una nueva forma de generar contenido visual, pero en los últimos años ha quedado muy claro que es mucho más que eso. Puede verse casi como un motor de combustión, una superpotencia para la creación de todo lo que habíamos asumido como exclusivo de la creatividad y la inteligencia humanas.
Es una tecnología emergente en 2023 porque ahora es lo suficientemente madura como para ser aplicada en la empresa para mejorar eficiencia y el conocimiento. Tradicionalmente, nos han enseñado a pensar que la inteligencia y la creatividad humanas son algo que la tecnología no puede automatizar o aumentar, como un bastión de los humanos. Pero empezamos a ver que la IA definitivamente puede ser una herramienta de mejora en muchos ámbitos, desde la creación de contenido visual para el entretenimiento hasta la asistencia en sectores que tradicionalmente han implicado una alta cualificación y años de capacitación, como el derecho, las finanzas o la programación.
En mi opinión, esta es probablemente una de las revoluciones tecnológicas más profundas que ha ocurrido en la historia de la humanidad, y creo evolucionará muy rápidamente. Una de las razones es que las grandes tecnológicas han entendido que esta es una tecnología clave, y en los últimos seis meses, desde que salió a la luz ChatGPT, han pivotado para hacer de la IA generativa una parte central de su estrategia. Cuando una empresa como Microsoft—el sistema operativo más popular del mundo—la integra como una herramienta creativa en su software, utilizado por cientos de millones de personas, se produce una aceleración en la adopción de la tecnología.
Recientemente, en el Digital Enterprise Show 2023 de Málaga, afirmabas que en unos años será habitual emplear IA generativa en la creación de contenidos digitales. ¿Cómo será necesario, en este escenario, repensar los conceptos de autoría o autenticidad? ¿Qué herramientas se podrían implementar para verificarlos?
Sí, afirmé que el 90% del contenido en línea será generado por IA para 2025. Esta cifra representa mi opinión de que esta será la última era de internet en la que la mayor parte del contenido y la información no tenga alguna capa de creación de IA. Ya hemos comenzado a verlo en los últimos años con cosas como los filtros de Instagram o TikTok, pero ahora, con las capacidades generativas de inteligencia artificial alcanzando la madurez y desplegándose en casi todos los casos de uso empresarial y en todas las industrias, en mi opinión la mayoría del contenido pasará a tener una naturaleza sintética.
Por lo tanto, determinar su autenticidad y el origen es una cuestión existencial cuando se trata de la integridad de la información. Inicialmente, con la aparición de los deepfakes, la atención se centró en detectar contenido creado por IA. Sin embargo, es un enfoque bastante problemático, porque no existe un detector único válido para todo, y los generadores de IA siempre evolucionarán para engañarlos. Y, quizás más importante, si asumimos como cierta mi afirmación de que la mayoría del contenido y la información tendrán algún grado de IA involucrado en su creación, la detección no será suficiente.
Otro enfoque que creo que es más prometedor es la idea de transparencia y procedencia del contenido. Más que detectar, se trata de revelar, incrustar en el ADN de cualquier información o contenido de dónde proviene. Y es más que una marca de agua: una de las empresas que aconsejo usa PKI [infraestructura de clave pública], que es una especie de hash criptográfico, por lo que siempre puedes verificar si fue creado por IA o quién es el propietario. Pero además las personas necesitarán ver esas credenciales, por lo que debemos incorporar a la arquitectura de internet la infraestructura para ello. Actualmente está siendo desarrollada como un estándar abierto por C2PA, una asociación sin fines de lucro de la que forman parte empresas muy influyentes como Microsoft y Adobe. También se debe educar a la sociedad sobre la inteligencia artificial y en alfabetización digital, de modo que necesitaremos tanto soluciones técnicas como sociales que se implementen en conjunto.
¿Dónde quedan los derechos de autor en la era de ChatGPT y DALL-E? ¿Tendremos que cambiar o ampliar nuestra noción de lo que son el arte y la creatividad para incluir a la inteligencia artificial generativa?
Creo que lo haremos, porque hay que concebirla como un medio completamente nuevo. Es como cuando se inventó la fotografía y los pintores de paisajes se preocuparon de que nadie comprara ya sus cuadros, ahora que la gente podía crear una imagen de un paisaje solo apretando un botón. Esto no significa que todos los que usan IA generativa sean creativos o artísticos, es solo una nueva herramienta. Creo que tenemos que cambiar nuestra concepción de la IA como un agente autónomo que roba de la creatividad humana, porque la realidad es que muchos creadores ya la están usando para mejorar su genio creativo.
En cuanto a los artistas que sienten legítimamente que su trabajo ha sido robado, ya estamos viendo las primeras demandas colectivas contra compañías de IA generativa. Lo que alegan es que, dado que usaron su trabajo sin consentimiento para entrenar a la herramienta, todo lo creado por Dall-E o Stable Diffusion constituye una infracción de derechos de autor. En realidad, no creo que prosperen, porque no es así como funcionan los modelos de difusión, no se puede rastrear qué imágenes específicas se usaron para crear contenido. Hay una cuestión más importante aquí: ¿cuál es el nuevo modelo de compensación para artistas y creadores cuyo trabajo, cuya inspiración se utiliza en los conjuntos de datos de entrenamiento de la IA?
Hace años, ya apuntabas en un artículo de opinión en MIT Technology Review que la manipulación y la desinformación no necesitaban la perfección técnica de la IA generativa y los deepfakes para causar estragos en el panorama político. ¿Qué está en riesgo si nos volvemos incapaces de distinguir lo que es real y lo que es falso? ¿Qué medidas se pueden tomar para combatir la desinformación visual?
Es una preocupación filosófica seria. Mi background es la geopolítica, y el hilo conductor constante de mi carrera era cómo la tecnología está emergiendo como una fuerza capaz de dar forma a la macro geopolítica e influir en las vidas de miles de millones de ciudadanos. A lo largo de la última década, ya había visto la corrosión del ecosistema de información online, incluso antes de que el contenido generado por IA entrara en escena. Y tenía algunas consecuencias atroces; por ejemplo, la desinformación que se difundió en Facebook en Myanmar fue parte de la razón que llevó a la campaña de limpieza étnica contra los rohingya.
La desinformación es un fenómeno antiguo, pero debido a la tecnología, la distancia y la velocidad a la que viaja la información y el impacto que puede tener ha cambiado profundamente en los últimos 30 años. Y ahora, añadimos la capacidad de las personas para crear cualquier contenido con inteligencia artificial. ¿Qué impacto llegará a tener la capacidad de la IA para clonar la biometría de las personas en la política, o para llevar a cabo estafas? Porque a medida que la tecnología mejora, se necesitan cada vez menos datos de entrenamiento. Ya hay empresas que dicen que pueden sintetizar voces con tres segundos de audio, lo que significa que cualquiera puede ser sintetizado.
Pero no es solo eso: ahora que sabemos que la IA puede sintetizar y crear cualquier cosa, hace que sea más fácil negar que algo sea real. La corrosión de la integridad de la información en sí misma es la cuestión realmente peligrosa.
¿Podemos evitar el mal uso de esta tecnología sin renunciar a sus beneficios potenciales?
Lo he visto desde ambas lados: inicialmente lo enfrenté desde la perspectiva del riesgo, dada mi experiencia en la guerra de la información. Luego, a lo largo de los años, pasé a trabajar con algunas de las empresas que están desarrollando esta tecnología y comprendí que la desinformación es solo una parte de la historia. La gente empleará esta tecnología como arma y de mala fe, pero también hay muchas posibilidades para la generación de conocimiento para la humanidad. ¿Qué desbloqueará la IA generativa en términos de descubrimientos que podrían cambiar la trayectoria de la humanidad? ¿Cómo se podría aplicar en la ciencia y en la medicina? Ya estamos viendo aplicaciones como el descubrimiento de proteínas para impulsar creación de nuevos fármacos o ayudar a combatir el cambio climático, por ejemplo, mediante el desarrollo de enzimas que devoren los plásticos en los océanos.
La cuestión es que no hay marcha atrás. Por lo tanto, debemos adoptar un enfoque a nivel de toda la sociedad, porque ninguna institución, estado o sociedad civil puede manejar la escala y el ritmo del cambio que se avecina. Los gobiernos necesitarán trabajar muy de cerca con la industria, que es donde se está desarrollando la tecnología, porque debe ser regulada, transparente y desarrollada con una IA responsable y ética en su núcleo. Si bien hay mucho trabajo por hacer, es alentador ver que desde el comienzo mismo de la revolución ese fue uno de los problemas centrales identificados y que la colaboración entre los gobiernos y la industria privada ya está sucediendo.