Inteligencia artificial en manos de terroristas: nuevas amenazas psicológicas
June 24, 2019 Noticias , TecnologíaLos investigadores de la Academia Rusa de Economía y Administración Pública dependiente del presidente de la Federación de Rusia y de la Academia Diplomática del Ministerio de Asuntos Exteriores (MAE) de Rusia estudiaron y tipificaron las amenazas del uso de la IA desde el punto de vista de la seguridad internacional psicológica.
Una atención especial se prestó a la prevención del uso malévolo de la IA por los terroristas. Los resultados de la investigación se publicaron en la revista Russia in Global Affairs.
Peligro del uso malévolo de la IA
Un peligro hipotético de la inteligencia artificial para la humanidad se planteó en reiteradas ocasiones en obras de arte y es hoy uno de los asuntos más discutidos del desarrollo científico y tecnológico. Aunque una IA fuerte, capaz de pensar de manera autónoma, no se ha creado todavía, varias versiones avanzadas de la IA débil cumplen tareas especiales, lo que hace unos 10 años parecía imposible.
El uso de la IA con buenas intenciones —por ejemplo, en la medicina— brinda beneficios indudables. Mientras, en las manos de las organizaciones terroristas o criminales las tecnologías de la IA que se hacen cada vez más baratas y más avanzadas pueden ser más peligrosas que las armas nucleares.
Los investigadores de varios países estudian las amenazas del uso malévolo de la IA para la sociedad, en general, y para varias áreas de la actividad humana: sea la política, la economía, el arte militar, etc. Las amenazas directas para la seguridad psicológica de la información no se han estudiado independientemente todavía. Mientras, el uso de la IA para desestabilizar las relaciones internacionales mediante un impacto psicológico en seres humanos con el uso de la información y alta tecnología representa evidentemente una seria amenaza.
“Un nuevo orden mundial está naciendo” https://t.co/uYWKYetWmp
— Sputnik Mundo (@SputnikMundo) 4 de enero de 2018
Los autores de la investigación propusieron tipificar las amenazas del uso malévolo de la inteligencia artificial a partir de varios criterios que incluyen el territorio, la velocidad y la forma de propagación. El uso de esta clasificación ayudará a encontrar métodos para contrarrestar a esto y elaborar medidas de respuesta.
“El futuro abaratamiento de las tecnologías de la IA puede crear amenazas de atentados terroristas absolutamente nuevas. No se puede excluir el uso de un asistente virtual para construir un comunicado sobre un evento falso y convencer a las víctimas hipotéticas a asistir a este. Con fines preventivos merece la pena informar a la gente sobre nuevas amenazas y advertir que es necesario manifestar cautela al contactar a distancia con las personas a que no conocen personalmente”, señaló a Sputnik la profesora titular del departamento de Seguridad Internacional y Política Exterior de Rusia de la Academia Rusa de Economía y Administración Pública, Daria Bazárkina.
“Una posible solución podría ser la certificación de los eventos públicos para confirmar que los anuncios publicados son reales. En este caso, la tarea de especialistas técnicos será proteger las bases de datos sobre el evento y el mecanismo de su certificación”, agregó Bazárkina.
El nivel actual de tecnologías y posibilidades de la IA permite tipificar varias amenazas absolutamente nuevas a la seguridad psicológica de la información de los seres humanos.
Uso de las tecnologías de ‘personas falsas’ y ‘deepfake’ para provocaciones a nivel internacional
La empresa tecnológica de EEUU NVIDIA difundió hace poco los resultados de funcionamiento de una red generativa antagónica capaz de generar independientemente imágenes de personas falsas (‘fakе people’). La red neuronal crea en varios segundos imágenes de gran resolución de personas que no existen y puede agregar cualesquiera rasgos culturales y étnicos, emociones, ánimo. Está basada en una colección infinita de imágenes de rostros reales.
No se puede excluir que en un futuro otros diseñadores aprovechen esta experiencia. Los criminales pueden usar tales imágenes para provocaciones que solo podrán detectarse por una sociedad que goce de conocimientos politécnicos sistémicos.
“La tecnología ‘deepfake’ puede sintetizar la imagen y la voz humana. Ya empezó a usarse para crear videos de los líderes mundiales, incluido el presidente de EEUU, Donald Trump, y el presidente de Rusia, Vladímir Putin. Los vídeos ‘deepfake’ pueden influir en la conducta de grandes grupos meta y pueden usarse en la lucha psicológica con el uso de la información para provocar un pánico financiero y una guerra”, dijo a Sputnik Evgueni Páshentsev, empleado del Instituto de Problemas Internacionales de la Academia Diplomática del MAE de Rusia y profesor titular de la Universidad Estatal de Moscú.
Mensajes apocalípticos y robots incontrolables: ¿cómo la ‘inteligencia artificial’ amenaza a la humanidad? https://t.co/wqiV8tVZ5h pic.twitter.com/EZqUO67OEx
— Sputnik Mundo (@SputnikMundo) 9 de agosto de 2018
El análisis del tono es una clase de métodos de análisis del contenido en la lingüística digital para encontrar en los textos de modo automático vocablos que transmiten las emociones y la evaluación emocional de autores. El análisis del tono se realiza a partir de una amplia gama de fuentes: blogs, artículos, foros, encuestas, etc.
Esto puede ser una herramienta eficaz en la lucha psicológica con el uso de la información, lo que se confirma por ejemplo por un alto interés actual hacia tales investigaciones por parte de los altos mandos del Comando de Operaciones Especiales de EEUU (SOCOM).
Armas previsibles: se puede pronosticar la conducta de seres humanos a partir de los datos publicados en las redes sociales
En 2012, en el marco del proyecto de EEUU Agencia de Proyectos de Investigación Avanzada de Inteligencia (IARPA), se lanzó el programa Reconocimiento Temprano de Eventos Basado en Modelos con el uso de Sustitutos (EMBERS). El objetivo de este proyecto fue pronosticar desórdenes públicos con el uso de la IA determinando la fecha, el lugar y el grupo de población que participa en manifestaciones de protesta.
El sistema procesa los datos de los medios de comunicación y redes sociales y las fuentes de calidad más alta, por ejemplo, los indicadores económicos. Es peligroso que los terroristas tengan acceso a tales programas. En este caso podrían perpetrar atentados terroristas a gran escala en medio de manifestaciones masivas. Un criterio adicional para escoger las metas de atentado puede ser el grado de tensión social y psicológica en una u otra región.
Según los autores de la investigación, los propios organismos nacionales y supranacionales pueden usar los mencionados pronósticos para reaccionar y prevenir la tensión social. Es decir, tomar oportunamente las medidas sociales, económicas y políticas dirigidas a conseguir la estabilidad a largo plazo.
Además, los grupos terroristas pueden perjudicar la reputación con el uso de bots durante las campañas políticas y para atraer a nuevos partidarios u organizar asesinatos de políticos.
Secuestro de aviones no tripulados y objetos de infraestructura robotizados
Los sistemas de transporte autónomos que se operan con la IA pueden ser objetos apropiados para perpetrar atentados terroristas con el uso de alta tecnología. Si los terroristas toman el control del sistema de gestión del transporte en una megápolis esto puede conllevar a numerosas víctimas.
Los sistemas comerciales pueden usarse para desplegar aviones no tripulados o sistemas de transporte autónomos para suministrar explosivos y provocar catástrofes. Una serie de desastres a gran escala puede tener una amplia repercusión en los medios de comunicación internacionales y afectar considerablemente la seguridad internacional psicológica.
Los investigadores de la Academia Rusa de Economía y Administración Pública de Rusia y de la Academia Diplomática del MAE de Rusia partieron del análisis sistémico del papel que desempeña la IA en el ámbito de seguridad, el método de análisis de escenario, analogías históricas y el análisis de cada caso concreto. Junto con su colega de la Universidad de Uppsala (Suecia), Greg Simons, los autores de la investigación son coeditores del libro ‘Terrorismo y tecnologías avanzadas en la lucha psicológica con el uso de la información: nuevos riesgos, nuevas posibilidades de contrarrestar a la amenaza terrorista’ con la participación de investigadores de 11 países.
Por iniciativa de los investigadores rusos, el problema de la IA en el contexto de amenazas a la seguridad psicológica de la información se aborda y seguirá abordándose en las conferencias internacionales y talleres internacionales autónomos de investigación.
Uno de tales eventos fue la conferencia celebrada del pasado 9 al 12 de junio bajo los auspicios de la Unesco y varias otras organizaciones rusas e internacionales en la ciudad de Janti-Mansi. En la reunión dedicada al uso malévolo de la IA celebrada bajo los auspicios de la red europeo-rusa de expertos en gerencia de comunicación participó la gobernadora de Janti-Mansi, Natalia Komarova.
En un futuro se celebrará el IV Foro Iberoamericano en San Petersburgo (del 1 al 3 de octubre de 2019), la Conferencia Europea sobre la influencia de la inteligencia artificial y robótica (del 31 de octubre al 1 de noviembre de 2019) en Oxford. Los autores de investigaciones pronunciaron discursos en Argentina, Uruguay, Brasil, Sudáfrica e Italia.
Según los expertos de la Academia Rusa de Economía y Administración Pública, en Rusia es muy importante organizar la formación de programas a largo plazo con fines específicos, porque el problema de la IA y de seguridad internacional psicológica es el problema del futuro próximo.