El verdadero poder de la IA: revolucionar nuestra forma de inventar

Cada vez cuesta más hacer investigación básica en I+D porque la ciencia es cada vez más compleja. Si hay una tecnología capaz de abordar este reto es la inteligencia artificial, que podría ahorrar tiempos y costes en todas las partes del proceso y pensar de formas totalmente nuevas.

La oficina en el MIT (EE. UU.) de Regina Barzilay, una de los principales investigadores del mundo en inteligencia artificial (IA), tiene unas buenas vistas de los Institutos de Investigación Biomédica de Novartis. El grupo de investigación que descubrió los fármacos de Amgen está muy cerca de ahí. Hasta hace poco, Barzilay no había pensado demasiado en aquellos edificios cercanos llenos de químicos y biólogos. Pero como la inteligencia artificial y el aprendizaje automático han empezado a realizar hazañas cada vez más impresionantes en el reconocimiento de imágenes y la comprensión del lenguaje, pensó: ¿podrían también transformar la tarea de encontrar nuevos fármacos?

El problema es que los investigadores humanos solo pueden explorar una pequeña parte de todo lo que hay. Se estima que existen hasta 1060 moléculas potencialmente similares a los medicamentos, una cantidad superior a la de átomos que hay en el sistema solar. Y al aprendizaje automático se le da muy bien encontrar posibilidades aparentemente ilimitadas. Entrenados en grandes bases de datos de moléculas existentes y sus propiedades, los programas pueden explorar todas las moléculas relacionadas posibles.

Descubrir nuevos fármacos es un proceso extremadamente costoso y, a menudo, frustrante. Los químicos y farmacéuticos deben adivinar qué compuestos podrían ser buenos medicamentos. Para ello solo disponen de sus conocimientos sobre cómo la estructura de una molécula afecta sus propiedades. Sintetizan y prueban innumerables variantes, y la mayoría sin éxito. “Crear nuevas moléculas sigue siendo un arte, porque existe un gran terreno de posibilidades. Encontrar buenos candidatos a medicamentos lleva mucho tiempo“, explica Barzilay.

El aprendizaje profundo podría acelerar este paso crítico y ofrecer muchas más oportunidades, al hacer que el descubrimiento de medicamentos sea mucho más rápido. Una ventaja: el aprendizaje automático suele tener una imaginación peculiar. “Tal vez irá en una dirección diferente a la que elegiría un humano. Piensa de forma distinta”, opina el investigador de fármacos en Amgen que está trabajando con Barzilay, Angel Guzman-Perez.

Otros utilizan el aprendizaje automático para tratar de inventar nuevos materiales para aplicaciones de tecnología limpia. Entre los elementos de su lista de deseos están las baterías mejoradas para almacenar energía en la red eléctrica y las celdas solares orgánicas, que podrían ser mucho más baratas de fabricar que las de gran volumen a base de silicio que se producen hoy en día.

Dichos avances se han vuelto más caros y difíciles de alcanzar, ya que las ciencias químicas y físicas y el descubrimiento de medicamentos se han vuelto increíblemente complejos y están saturados de datos. A pesar de que las industrias farmacéutica y biotecnológica invierten mucho en investigación, el número de nuevos medicamentos basados ​​en nuevas moléculas ha sido pequeño en las últimas décadas. Y todavía estamos atascados con las baterías de iones de litio que datan de principios de la década de 1990 y los diseños para celdas solares de silicio que también son de hace décadas.

El aprendizaje profundo es precisamente excelente para abordar esa complejidad que está ralentizando el progreso de estos campos. Buscar en espacios multidimensionales para generar valiosas predicciones es “lo mejor de IA”, destaca el economista de la Escuela Rotman de Administración en Toronto (Canadá) y autor del libro Prediction Machines: The Simple Economics of Artificial Intelligence, Ajay Agrawal.

En un artículo reciente, los economistas del MIT, la Universidad de Harvard y la Universidad de Boston (todos en EE.UU.) defienden que el mayor impacto económico de IA podría provenir de su potencial como un nuevo “método de invención” que redefine “la naturaleza del proceso de innovación y la organización de la I+D”.

El economista de la Universidad de Boston y coautor del artículo Iain Cockburn, asegura lo siguiente: “Los nuevos métodos de invención con aplicaciones tan amplias no aparecen muy a menudo, y si nuestra estimación es correcta, la IA podría cambiar drásticamente el coste de la I+D en muchos campos”. Gran parte de la innovación implica hacer predicciones basadas en datos. Y Cockburn afirma que, para tales tareas, “el aprendizaje automático podría ser mucho más rápido y más barato en varias órdenes de magnitud”.

En otras palabras, puede que el mayor legado de IA no sean los coches autónomos ni la búsqueda de imágenes o incluso la capacidad de Alexa para aceptar órdenes, sino su poder de generar nuevas ideas para impulsar la propia innovación.

Las ideas se están poniendo caras

A finales del año pasado, el economista Paul Romer ganó el Premio Nobel de Economía por su trabajado de finales de la década de 1980 y principios de la década de 1990. En él, mostraba cómo las inversiones en nuevas ideas e innovación impulsan un gran crecimiento económico. Otros economistas ya habían intuido la conexión entre la innovación y el crecimiento, pero Romer dio una espléndida explicación de cómo funciona. En las décadas posteriores, las conclusiones de Romer han sido la inspiración intelectual para muchos en Silicon Valley (EE. UU.) y ayudan a explicar cómo ha alcanzado tanta riqueza.

Pero, ¿qué pasa si nuestro embalse de nuevas ideas empieza a secarse? Los economistas de la Universidad de Stanford (EE. UU.) Nicholas Bloom y Chad Jones, su estudiante graduado Michael Webb, y el profesor en el MIT John Van Reenen analizaron este problema en un artículo reciente titulado ¿Es más difícil encontrar las ideas? (Y su respuesta es: “Sí”). Al analizar el descubrimiento de medicamentos, la investigación de semiconductores, la innovación médica y los esfuerzos para mejorar los rendimientos de los cultivos, los economistas encontraron un punto común: las inversiones en investigación están aumentando considerablemente mientras los beneficios siguen estancados.

Desde la perspectiva de un economista, se trata de un problema de productividad: estamos pagando más por una cantidad similar de producción. Y los cálculos pintan mal. La productividad de la investigación, el número de investigadores necesarios para llegar a un resultado dado, está disminuyendo en alrededor de 6,8 % anual para la tarea de extender la Ley de Moore, que requiere encontrar formas de empaquetar componentes cada vez más pequeños en un chip semiconductor para continuar haciendo los ordenadores más rápidos y más potentes. Según su análisis, hoy en día hacen falta 18 veces más investigadores para duplicar la densidad de chips que a principios de la década de 1970. Para mejorar las semillas y los rendimientos de los cultivos, la productividad de la investigación está disminuyendo un 5 % cada año. Para la economía de Estados Unidos en su conjunto, se trata de una disminución de un 5,3 %.

Las grandes ideas cada vez cuestan más

Según los economistas de Stanford y el MIT, se necesitan más investigadores y más dinero para encontrar nuevas ideas productivas. Ese es un factor que probablemente influye en el lento crecimiento general en EE. UU. y Europa en las últimas décadas. El gráfico a continuación muestra el patrón para la economía general, destacando el factor de la productividad total de EE. UU. (una media por décadas y para el período entre 2000 y 2014), una medida sobre la contribución de la innovación, frente al número de investigadores. Patrones similares se pueden aplicar a áreas específicas de investigación.

Fuentes: Bloom, Jones, Van Reenen y Webb

Hasta ahora, cualquier efecto negativo de esta disminución se ha ido compensando por los aumentos en los presupuestos y personal para investigación. Así que cada dos años seguimos duplicando la cantidad de transistores en los chips, pero solo porque hay mucha más gente dedicándose a eso. Tendremos que duplicar nuestras inversiones en investigación y desarrollo en los próximos 13 años solo para seguir manteniéndonos a flote.

Podría ser, por supuesto, que los campos como la tecnología de cultivos y la investigación de semiconductores estén envejeciendo y reduciendo sus oportunidades para innovar. Pero, los investigadores también han descubierto que el crecimiento de la economía general vinculado a la innovación es lento. Ninguna inversión en nuevas áreas, ni ningún invento generado, ha cambiado la historia general.

La caída en la productividad de las investigaciones parece ser una tendencia de varias décadas. Pero ahora resulta particularmente preocupante para los economistas porque la desaceleración general del crecimiento económico se siente desde mediados de la década de 2000. A pesar de que estamos en una época de brillantes nuevas tecnologías como los teléfonos inteligentes, los coches autónomos y Facebook, el crecimiento sigue siendo lento, y su parte atribuida a la innovación, llamada productividad total de los factores, ha sido particularmente débil.

Los efectos persistentes del colapso financiero de 2008 podrían estar obstaculizando el crecimiento, según Van Reenen, y también la continua incertidumbre política. Pero la baja productividad de la investigación es, sin duda, un factor que también está ahí. Y cree que, si el declive continúa, podría dañar seriamente la prosperidad y el crecimiento futuro.

Tiene sentido pensar que, en términos de nuevos inventos, ya hemos recogido la gran parte de lo que a algunos economistas les gusta llamar la “fruta de las ramas más bajas”. ¿Es posible que la única fruta que quede sean unas pocas manzanas ya arrugadas en las ramas más altas del árbol? El economista de la Universidad Northwestern (EE. UU.) Robert Gordon defiende firmemente esa idea. Opina que es poco probable que volvamos a igualar el auge de descubrimientos de los finales del siglo XIX y principios del XX, cuando las invenciones como la luz eléctrica y el motor de combustión interna condujeron a un siglo de prosperidad sin precedentes.

Si Gordon tiene razón, y quedan pocos grandes inventos por descubrir, estamos condenados a un futuro económico sombrío. Pero pocos economistas coinciden con él. Para ellos, las grandes ideas nuevas están por ahí; pero cada vez cuesta más encontrarlas ya que la ciencia se está volviendo cada vez más compleja. Las posibilidades de que una nueva penicilina caiga del cielo son escasas. Necesitaremos cada vez más investigadores para comprender el avance de la ciencia en los campos como la química y la biología.

Es lo que el economista de Northwestern Ben Jones llama “la carga del conocimiento”. Los investigadores están más especializados, y por eso es necesario formar equipos más grandes y más caros para resolver los problemas. La investigación de Jones muestra que la edad con la que los científicos alcanzan su máxima productividad está aumentando: les lleva más tiempo obtener la experiencia necesaria. “Es una consecuencia intrínseca del crecimiento exponencial del conocimiento”, asegura.

Van Reenen detalla: “Mucha gente me dice que nuestros hallazgos son deprimentes, pero yo no lo veo así”. Si la innovación ahora es más difícil y cara, lo que hace falta son nuevas medidas políticas, como los incentivos fiscales, que alienten aún más las inversiones en la investigación.

El experto añade: “Siempre que se inviertan los recursos en I+D, podemos mantener un crecimiento saludable de la productividad. Pero debemos estar preparados para gastar dinero para lograrlo. Nada de esto es gratis“.

Renunciar a la ciencia

¿Podría la IA resolver de forma creativa los problemas que requiere una innovación de este tipo? Algunos avances como el de AlphaGo han convencido a algunos expertos de que sí. El AlphaGo ya es experto en el antiguo juego Go, derrotó al entonces campeón analizando los posibles y casi ilimitados movimientos en un juego milenario que las personas jugaban basándose principalmente en la intuición. A la máquina se le ocurrían estrategias ganadoras en las que ningún jugador humano habría pensado. De la misma manera, los programas de aprendizaje profundo ​​entrenados con grandes cantidades de datos experimentales y literatura química podrían generar algunos compuestos novedosos que los científicos nunca podían imaginar.

¿Podría un descubrimiento similar a AlphaGo ayudar a las crecientes armadas de investigadores a analizar los datos científicos que no paran de crecer? ¿Podría la IA hacer que la investigación básica sea más rápida y productiva, reactivando aquellas áreas que se han vuelto demasiado caras para las empresas?

En las últimas décadas se ha visto un enorme cambio en las iniciativas de I+D. Desde los días en los que Bell Labs de AT&T y PARC de Xerox crearon sus inventos que cambiaron el mundo como el transistor, las células solares y la impresión por láser, la mayoría de las grandes empresas de EE. UU. y de otras economías ricas han abandonado la investigación básica. Mientras tanto, las inversiones federales en I+D de EE. UU. se han estancado, especialmente en los campos ajenos a las ciencias de la vida. Así que, mientras el número de investigadores en general continúa aumentando y convirtiendo los avances paulatinos en oportunidades comerciales, las áreas que requieren investigación a largo plazo y que dependen de la ciencia básica se han visto afectadas.

La invención de nuevos materiales en particular se ha convertido en una zona remota a nivel comercial. Eso ha frenado las innovaciones tan necesarias en la tecnología limpia, como mejores baterías, células solares más eficientes y catalizadores para producir combustibles directamente de la luz solar y el dióxido de carbono (como una especie de fotosíntesis artificial). Aunque los precios de los paneles solares y las baterías están cayendo constantemente, esto se debe en gran parte a las mejoras en la fabricación y las economías de escala, en lugar de los avances fundamentales en las tecnologías en sí.

¿Podría un descubrimiento similar a AlphaGo ayudar a las crecientes armadas de investigadores a analizar los datos científicos que no paran de crecer?

Se necesita una media de 15 a 20 años para crear un nuevo material, asegura el ingeniero mecánico del MIT Tonio Buonassisi, que está trabajando con un equipo de científicos en Singapur para acelerar el proceso. Para la mayoría de las empresas, dos décadas es demasiado. Es poco práctico incluso para muchos grupos académicos. ¿Quién quiere pasar años buscando un material que podría funcionar o no? Esta es la razón por la que las start-upsrespaldadas por las empresas de riesgo, que han generado gran parte de la innovación en software e incluso en biotecnología, han renunciado hace mucho tiempo a la tecnología limpia: los inversores de capital riesgo quieren rentabilidad en siete años o menos.

“Acelerar diez veces el descubrimiento de materiales no solo es posible, sino que es necesario”, sostiene el director del laboratorio de investigación fotovoltaica del MIT, Buonassisi. Su objetivo, y el de una red poco conectada de colegas científicos, consiste en utilizar inteligencia artificial y aprendizaje automático para reducir ese período a entre dos años y cinco años. Su plan para lograrlo consiste en abordar los diversos obstáculos del laboratorio y automatizar la mayor parte posible del proceso. Un proceso más rápido permite a los científicos probar muchas más soluciones potenciales, les permite encontrar puntos muertos en horas en vez de meses, y ayuda a optimizar los materiales. El responsable opina: “Transforma nuestra forma de pensar como investigadores”.

También podría hacer que el descubrimiento de nuevos materiales vuelva a ser viable comercialmente. Buonassisi apunta a un gráfico que muestra el tiempo necesario para el desarrollo de varias tecnologías. En una de las columnas, la de las “baterías de iones de litio”, el plazo es de 20 años. Otra columna, mucho más corta, es la de “nuevas células solares”; en la parte superior está el “objetivo climático 2030”. El mensaje está claro: no podemos esperar otros 20 años para el próximo descubrimiento en materiales de tecnología limpia.

Un laboratorio dirigido por la IA

“Ven a una tierra libre”: así es como el investigador Alán Aspuru-Guzik invita a un visitante estadounidense a su laboratorio de Toronto (Canadá). En 2018, Aspuru-Guzik dejó su puesto como profesor de química en Harvard, y se mudó con su familia a Canadá. Su decisión fue motivada por un fuerte desacuerdo con el presidente Donald Trump y sus políticas, en particular con las de inmigración. Además, no le pareció mal que Toronto se esté convirtiendo rápidamente en una meca para la investigación en inteligencia artificial.

Además de ser profesor de química en la Universidad de Toronto, Aspuru-Guzik también tiene un puesto en el Instituto Vector de Inteligencia Artificial. Es el centro de inteligencia artificial cofundado por el investigador Geoffrey Hinton, cuyo trabajo pionero en el aprendizaje profundo y las redes neuronales se considera en gran medida como el motor de la explosión actual en la IA. En un extraordinario artículo de 2012, Hinton y sus coautores demostraron que una red neuronal profunda, entrenada con una gran cantidad de imágenes, podía identificar un hongo, un leopardo y un perro dálmata. Fue un descubrimiento extraordinario en ese momento, y rápidamente marcó el comienzo de una revolución de la IA con el uso de los algoritmos de aprendizaje profundo para dar sentido a los grandes conjuntos de datos.

Los investigadores no tardaron en encontrar formas de usar esas redes neuronales para ayudar a los coches autónomos a navegar y para detectar caras en una multitud. Otros modificaron las herramientas de aprendizaje profundo para que se entrenaran a sí mismas; entre estas herramientas se encuentran las GAN (redes generativas antagónicas), que pueden crear imágenes de escenas y personas que nunca existieron.

En un trabajo de seguimiento de 2015, Hinton dio pistas de cómo el aprendizaje profundo podría usarse en la investigación de química y materiales. En su artículo destacó la capacidad de una red neuronal para descubrir las “estructuras complejas en datos de gran tamaño”; en otras palabras, las mismas redes que pueden navegar a través de millones de imágenes para encontrar, por ejemplo, un perro con manchas, podría clasificar millones de moléculas para identificar una con ciertas propiedadesdeseables.

Enérgico y lleno de ideas, Aspuru-Guzik no es el tipo de científico que esperaría pacientemente dos décadas para averiguar si un material funcionará. Por eso ha incorporado rápidamente el aprendizaje profundo y las redes neuronales para intentar reinventar el descubrimiento de materiales. La idea consiste en infundir la inteligencia artificial y la automatización en todos los pasos de la investigación de materiales: desde el diseño inicial y la síntesis de un material, sus pruebas y análisis, y, finalmente, hasta los múltiples refinamientos que optimizan su rendimiento.

En un día gélido a principios de enero, Aspuru-Guzik se baja el gorro hasta las orejas, pero por lo demás, no parece consciente del clima tan frío canadiense. Tiene otras cosas en mente. Por un lado, todavía está esperando recibir un robot de un millón de euros, que tiene que llevar en barco desde Suiza y que será la pieza central para el laboratorio automatizado manejado por la inteligencia artificial que ha ideado.

En dicho laboratorio, las herramientas de aprendizaje profundo como las GAN y su primo, una técnica llamada autoencoder, imaginarán nuevos materiales prometedores y descubrirán cómo hacerlos. Después, el robot se encargará de fabricar los compuestos. Aspuru-Guzik quiere crear un sistema automatizado asequible que pueda producir nuevas moléculas a demanda. Una vez hechos los materiales, se pueden analizar con instrumentos tradicionales como el espectrómetro de masas. Las herramientas adicionales de aprendizaje automático darán sentido a esos datos y “diagnosticarán” las propiedades del material. Estas ideas se utilizarán para optimizar aún más los materiales, ajustando sus estructuras. Y luego, dice Aspuru-Guzik, “la IA seleccionará el siguiente experimento para realizar, cerrando el ciclo”.

La idea es infundir inteligencia artificial y automatización en todos los pasos de la investigación de materiales y el descubrimiento de fármacos.

Cuando llegue el robot, Aspuru-Guzik espera producir unos 48 materiales nuevos cada dos días, aprovechando las ideas del aprendizaje automático para seguir mejorando sus estructuras. Es decir, un material nuevo y prometedor cada hora, un ritmo sin precedentes que podría transformar completamente la productividad del laboratorio.

No se trata simplemente de imaginar “un material mágico”, asegura. Para cambiar de verdad la investigación de materiales, hay que abordar todo el proceso. El experto detalle: “¿Cuáles son los obstáculos? Queremos IA en cada elemento del laboratorio”. Cuando se obtiene una estructura propuesta, por ejemplo, aún hace falta descubrir cómo hacerla. Ese proceso, que los químicos llaman “retrosíntesis”, puede durar semanas o meses. Consiste en trabajar hacia atrás desde una estructura molecular para descubrir los pasos necesarios para sintetizar un compuesto. Otro obstáculo consiste en dar sentido a la gran cantidad de datos creados por los equipos analíticos. El aprendizaje automático podría acelerar todos estos pasos.

Lo que motiva a Aspuru-Guzik es la amenaza del cambio climático, la necesidad de mejorar la tecnología limpia y el papel esencial de los materiales en la producción de ese tipo de avances. Su propia investigación está buscando electrolitos orgánicos novedosos para baterías de flujo, que se podrían usar para almacenar el exceso de electricidad de las redes eléctricas y reactivarla cuando sea necesario. También se dedica a las células solares orgánicas, podrían ser mucho más baratas que las de silicio. Pero si su diseño para un laboratorio químico automatizado y autosuficiente funciona, cree que logrará que la química sea mucho más accesible para casi todos. Él lo llama la “democratización del descubrimiento de materiales”.

“Aquí es donde está la acción. La IA que conduce los coches, que mejora los diagnósticos médicos, que se usa para las compras personales, el crecimiento económico de la IA aplicada a la investigación científica puede hundir el impacto económico de todas esas otras IA combinadas”, añade.

El Instituto Vector, el imán de Toronto para la investigación en IA, se encuentra a poco más de un kilómetro de distancia. Desde las ventanas del gran espacio abierto de oficinas, se puede ver el edificio del parlamento de Ontario. La proximidad de los expertos en inteligencia artificial, química y negocios a la sede del Gobierno de la provincia en el centro de Toronto no es casual. Muchos en la ciudad creen que la inteligencia artificial transformará los negocios y la economía, y cada vez más hay más gente convencida de que cambiará radicalmente nuestra forma de hacer ciencia.

Aun así, si lo logra, primero habrá que convencer a los científicos de que vale la pena.

El director de Amgen, Guzmán-Pérez, afirma que muchos de sus colegas en química medicinal son escépticos. En las últimas décadas, este campo ha visto una serie de tecnologías supuestamente revolucionarias, desde el diseño informático hasta la química combinatoria y la prueba de alto rendimiento, que han automatizado la rápida producción y el análisis de múltiples moléculas. Y aunque todas ellas han demostrado ser útiles, también resultan limitadas. Según él, ninguna “creará un nuevo fármaco por arte de magia”.

Es demasiado pronto para saber con certeza si el aprendizaje profundo cambiará el terreno de juego, y reconoce que “es difícil saber el marco de tiempo”. Pero le anima la velocidad a la que la IA ha transformado el reconocimiento de imágenes y otras tareas de búsqueda. “Con suerte, podría suceder algo así aquí en la química”, concluye.

Todavía estamos esperando un hito como el de AlphaGo para la química y los materiales, ese momento en el que los algoritmos de aprendizaje profundo superen a los humanos más hábiles en la creación de un nuevo medicamento o material. Pero al igual que AlphaGo ganó con una combinación de estrategia extraña e imaginación inhumana, los más recientes programas de inteligencia artificial pronto se podrán probar en el laboratorio.

Por eso, algunos científicos sueñan a lo grande. La idea es, según Aspuru-Guzik, utilizar la inteligencia artificial y la automatización para reinventar el laboratorio con herramientas como la impresora molecular de casi 27.000 euros que planea construir. Entonces dependerá de la imaginación de los científicos, que en su vez dependerían de la inteligencia artificial, cómo explorar las probabilidades.

MIT