Tres buenas prácticas para minimizar el mal uso de los ‘deepfakes’
December 17, 2019 Noticias , TecnologíaLa tecnología para crear ultrafalsificaciones amenaza con destruir la información y la realidad tal y como las conocemos. Pero también puede generar avances muy positivos. Esta guía aspira a fomentar su avance de forma segura, pero requiere que gobiernos, empresas e investigadores la apoyen.
Las tecnologías para crear contenidos artificiales increíblemente realistas o ultrafasificaciones (conocidas popularmente como deepfakes) no solo tienen un impacto negativo en el mundo. La síntesis de voz, por ejemplo, nos permitirá hablar en cientos de idiomas con nuestra propia voz. La síntesis de vídeo puede ayudarnos a simular accidentes de coches autónomos para evitar futuros errores. Y la síntesis de texto puede acelerar nuestra capacidad de escribir tanto programas como prosa.
Pero estos avances podrían tener un inmenso coste si no tenemos cuidado: las mismas tecnologías también podrían producir engaños a nivel global. Afortunadamente, tenemos la capacidad de cumplir la promesa de esta tecnología al tiempo que mitigamos sus amenazas. Lo único que hace falta es un poco de trabajo duro.
Por lo tanto, este texto pretende ser tanto un llamamiento a la acción para llevar a cabo ese trabajo como una guía para ayudar a crear dicha tecnología, ya sea para una investigación innovadora, para el desarrollo de nuevos productos o simplemente para crear sistemas abiertos para la diversión. También va dedicado quienes invierten o financian dicho trabajo, a los periodistas que podrían ayudar a que los creadores de esta tecnología tomen en serio sus impactos y a los amigos y familiares de los creadores de esta tecnología.
Sus creadores deben dejar de decir cosas como: “No hay nada que podamos hacer si la gente usa mal nuestras herramientas”. Porque hay cosas que sí pueden hacer; solo que a veces no quieren molestarse en hacerlas. Otro argumento: “Esta tecnología se creará de todos modos”. Esto no es del todo incorrecto, pero el cómo y el cuándo importan y mucho, y pueden ser resultado de nuestras decisiones. Al final, no podemos escondernos detrás de la confirmación trivial de que “siempre ha habido engaño” mientras ignoramos las importantes diferencias sobre su grado e impacto.
Los costes de la tecnología deepfake no son solo teóricos. Los vídeos ultrafalsificados que intercambian una cara por otra acosan a los periodistas de forma silenciosa; se utilizan voces sintéticas para realizar grandes transacciones fraudulentas, y las caras sintéticas han apoyado supuestamente el espionaje. Y todo eso a pesar de los desafíos actuales de usar software de calidad beta. Todavía hay muchos obstáculos para masificar el uso de medios sintéticos y por eso la tecnología no resulta convincente. Pero como las versiones beta con errores están llegando a las manos de miles de millones de personas, tenemos la responsabilidad de evitar los peores escenarios dificultando al máximo el mal uso de deepfakes. ¿Cómo?
Enfoque 1: limitar quién puede usar la herramienta… y cómo
Hay varias cosas que podemos hacer para reducir las probabilidades del uso malicioso. Un enfoque obvio, simple y efectivo consiste en examinar cuidadosamente a quienes pueden usar la herramienta. A esto precisamente se dedican las empresas como Synthesia que, básicamente, solo trabaja con clientes empresariales verificados.
Una alternativa es restringir el uso: limitar lo que los usuarios pueden sintetizar o manipular. Por ejemplo, es posible crear herramientas para garantizar que solo se puedan manipular voces o caras previamente seleccionadas. Así es como funciona Humen, por ejemplo. La empresa ofrece un conjunto limitado de movimientos que una persona puede realizar en un vídeo generado.
Sin embargo, estas estrategias podrían no ser una buena opción para muchos sistemas. Entonces, ¿qué más se puede hacer?
Enfoque 2: desincentivar el uso malicioso
Todavía hay muchas formas de reducir el uso malicioso de las herramientas de medios sintéticos generales y ampliamente disponibles. Ofrecemos unos ejemplos.
- Información clara: solicitar que las ultrafasificaciones sean marcadas claramente como tales, especialmente las que puedan usarse para acometer engaños. Las herramientas de soporte podrían incluir claros avisos visuales o audibles en los archivos de salida, como advertencias visibles o información oral. Como mínimo, los metadatos deben indicar cómo se sintetizaron o manipularon los medios.
- Protección de consentimiento: requerir el consentimiento de las personas suplantadas. La herramienta de clonación de voz Lyrebird requiere que los usuarios pronuncien frases concretas para modelar su voz. Esto dificulta más el intento de hacerse pasar por alguien sin su consentimiento, lo que sería muy fácil si simplemente se generaran voces utilizando cualquier conjunto de datos proporcionado. Esto es aplicable solo para las herramientas que permiten la suplantación, por supuesto.
- Capacidad de detección: asegurarse de que las ultrafalsificaciones no sean excesivamente difíciles de detectar; mantener actualizadas las herramientas de detección; colaborar con los que trabajan en la detección para mantenerlos informados sobre los nuevos desarrollos.
- Marcas de agua ocultas: incrustar el contexto sobre la síntesis, o incluso los medios originales, a través de fuertes marcas de agua, tanto mediante los métodos accesibles para cualquier persona con las herramientas adecuadas, como a través de enfoques secretos y difíciles de eliminar. (Por ejemplo, Modulate.ai pone insertas marcas de agua al audio que genera, mientras que productos como Imatag y sus equivalentes de código abierto ofrecen las marcas de agua para las imágenes).
- Registros de uso: almacenar la información sobre el uso y los resultados de los medios producidos para que investigadores y periodistas puedan acceder a ella para identificar si, por ejemplo, un vídeo fue sintetizado mediante una herramienta en particular. Esto podría incluir almacenar marcas de tiempo de síntesis con un hash fuerte o incrustación de medios.
- Restricciones de uso: crear y respetar los términos contractuales de uso que prohíben y penalizan las acciones no deseadas, como intentar eliminar las señales o marcas de agua, o violar el consentimiento de otras personas. Una versión más fuerte de este enfoque implica la elaboración explícita de los usos permitidos de la tecnología o de los productos resultantes.
No todas estas estrategias se pueden aplicar a todos los sistemas. Algunas pueden tener sus riesgos, y ninguna es perfecta, o suficiente por sí sola. Todas forman parte de una “defensa en profundidad”, en la que más es más. Incluso con verificaciones y restricciones, estos enfoques todavía hacen que un sistema sea más resistente a los adversarios. Y aunque estas reglas funcionarían mejor para los sistemas de “software como servicio” (SaaS), que se entregan sin revelar ningún código fuente, también podrían proporcionar algún valor para las herramientas y modelos de código abierto: muchos malos actores perderían la capacidad técnica para pasar estas medidas de protección.
Enfoque 3: apoyar las herramientas éticas de ‘deepfake’
Trabajar más para proteger a la gente de posibles daños puede ser difícil de justificar en el competitivo entorno empresarial actual. Al menos, hasta que ocurra una catástrofe irreversible. Entonces, ¿cómo ayudar a que estos enfoques se implementen antes de que sea demasiado tarde? Proponemos cuatro cosas que los financiadores, los gobiernos, los periodistas y la sociedad pueden hacer ahora para apoyar a los creadores de las herramientas éticas de los medios sintéticos.
1. Facilitar el trabajo de hacer lo correcto
Eso significa que debemos invertir en la investigación en todas estas áreas para tener las herramientas de código abierto ampliamente disponibles y bien financiadas para poder implementar estos enfoques. El historial de seguridad de la información muestra que cuando es posible usar herramientas de código abierto sencillas para mantener la seguridad, muchas más cosas terminan siendo seguras. Aquí se aplica la misma lógica: como mínimo, necesitamos facilitar el suministro de metadatos, marcas de agua y registros estandarizados urgentemente. También nos hace falta investigar para explorar si es factible incluir la detectabilidad en modelos entrenados antes de la distribución. Sin este tipo de infraestructura e investigación, veremos cómo muchas herramientas nuevas bien intencionadas acaban usándose de maneras horribles.
2. Fomentar la experiencia en mitigar el mal uso
Al igual que en privacidad y en seguridad, debemos apoyar a las comunidades centradas en fortalecer los sistemas y en abordar a los malos actores, y las empresas deben pagar a las personas para que realicen este trabajo, ya sea como consultores o internamente.
3. Evitar financiar, crear y distribuir herramientas irresponsables
Si una empresa o herramienta no intenta reducir la posibilidad de mal uso, los financiadores y desarrolladores no deberían apoyarla. Los fabricantes de herramientas que no implementan las mejores prácticas enumeradas anteriormente deben tener muy buenas razones para no hacerlo, y las tiendas de aplicaciones deben exigirlas de manera predeterminada.
4. Crear normas que responsabilicen a las personas
Si son negligentes, deberíamos denunciarlos, aunque sean nuestros patrocinadores, compañeros de trabajo, amigos o familiares. Podemos crear normas éticas que elogien a quienes hacen lo correcto y presionen a los que no para que lo hagan mejor.
Las organizaciones que promueven la tecnología deepfake, como Nvidia, Adobe, Facebook y Google, deberían invertir fuertemente en todo lo anterior. Los inversores de capital riesgo y las fundaciones también deben apoyar este trabajo y tener cuidado de a quién apoyan.
Esto es solo una parte de un conjunto mucho más amplio de todos los esfuerzos que se necesitan, y en muchos casos pueden solo sirven para ganar algo de tiempo. Eso significa que resulta imprescindible garantizar que las plataformas y los responsables de la formulación de políticas utilicen ese tiempo sabiamente para hacer que nuestro ecosistema de información sea más resistente.
Nuestro pasado está plagado de personas que hubieran querido lanzar sus inventos con más cuidado, y solo tenemos un futuro. No lo arruinemos.