Mensajes apocalípticos y robots incontrolables: ¿cómo la ‘inteligencia artificial’ amenaza a la humanidad?

A finales de julio, la red social Twitter empezó a bloquear de manera instantánea, con el uso de la inteligencia artificial (IA), todas las cuentas que utilizaban el nombre de Elon Musk como parte de la lucha contra el spam.

CCO / Pixabay

Twitter está introduciendo nuevas medidas que comprenden el uso de la IA contra estafas que se realizan a través de cuentas falsas con nombres de famosos, como el del presidente ejecutivo de Tesla y SpaceX, para atraer a una mayor cantidad de usuarios.

“Estamos desarrollando herramientas de ‘machine learning’ que identifiquen y actúen sobre redes de spam o cuentas automatizadas”, explica el comunicado de Twitter.

El ‘machine learning’ o aprendizaje automático es una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.

Es decir, ahora la IA decide qué información debe llegar a los usuarios de las redes sociales y qué mensajes y cuentas deben ser bloqueadas.

El propio Elon Musk advirtió en varias ocasiones del peligro que nos trae el desarrollo de la inteligencia artificial que podría salirse del control de los seres humanos.

“Creo que el peligro de la IA es mucho mayor que el peligro de ojivas nucleares”, subrayó Musk en marzo de este año.

El célebre físico Stephen Hawking también había advertido que la inteligencia artificial “podría desarrollar una voluntad propia que entre en conflicto con la de la humanidad” y la calificó como el “peor suceso en la historia de la civilización”.

De hecho, la IA ya ha pasado a formar parte de la vida humana: desde las aplicaciones con funciones de asistente como Siri y Ok Google hasta los robots diseñados para sustituir al ser humano en ciertas profesiones.

Los casos de un comportamiento incontrolable de la IA son bastante frecuentes. El primero en agredir a una persona fue el robot Little Chubby, diseñado para educar a los niños, que se salió de control y atacó a un ser humano durante una feria internacional de tecnologías en China en 2016. El robot demolió un mostrador, rompió los cristales y cuando uno de los empleados trató de detenerlo, le causó varios cortes.

El mismo año, apareció un robot capaz de herir a una persona, es decir, violar la llamada primera ley de la robótica que establece que “un robot no puede hacer daño a un ser humano”. Este robot es capaz de pinchar el dedo de una persona intencionalmente. La máquina decide de manera autónoma si herir o no al ser humano y ni siquiera su propio creador puede predecir sus acciones.

Asimismo, en julio del año pasado, el robot K5 diseñado para vigilar y prevenir crímenes se negó a cumplir su tarea y se ‘suicidó’ al tirarse a una fuente de agua.

Recientemente, el traductor de Google, otra plataforma que utiliza la IA, predijo el fin del mundo. La herramienta muestra sospechosas profecías religiosas si se escribe una serie concreta de palabras.

“Nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús”, decía la plataforma al traducir la palabra ‘dog’ introducida 19 veces.

A pesar de estos y otros episodios negativos en la interacción del ser humano con la IA, un gran número de especialistas apoya el desarrollo de las tecnologías de este tipo y no ve ninguna amenaza para la humanidad en su aplicación. Entre ellos, Steve Wozniak, cofundador de Apple, está seguro de que “las máquinas no se volverán en contra nuestra si nos ven como amigos”.

Mientras tanto, otros expertos subrayan que es necesario establecer un estricto control sobre el desarrollo de la AI que evite que cualquiera pueda dedicarse al desarrollo de los robots inteligentes. También piden prestar mayor atención y tener un extremo cuidado a la hora de desarrollar robots militares con el uso de la inteligencia artificial.

Sputnik