“No tenemos procedimientos éticos sólidos para usar IA de forma segura”
June 29, 2020 Noticias , TecnologíaLa experta en ética Jess Whittlestone advierte que la inteligencia artificial ha avanzado más rápido que los mecanismos para garantizar que se aplique correctamente. Por eso, pide equipos multidisciplinares para que se integre en su diseño desde el principio y más transparencia sobre cómo se utiliza.
La profesora del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge (Reino Unido) Jess Whittlestone y sus colegas publicaron un artículo en Nature Machine Intelligence argumentando que si queremos que la inteligencia artificial (IA) nos ayude a superar una crisis, necesitamos una nueva forma más rápida de crear la ética para la IA, algo que denominaron como ética de urgencia.
Para Whittlestone, esto significa anticipar los problemas antes de que ocurran, encontrar mejores formas de crear la seguridad y confiabilidad en los sistemas de inteligencia artificial y dar más importancia a la experiencia técnica en todos los niveles del desarrollo y uso de la tecnología. Lo fundamental de estas recomendaciones es la idea de que la ética debe formar parte de la creación de la IA y de la manera en la que se usa, en lugar de ser un complemento o un elemento secundario.
Finalmente, la IA lleva ética incorporada, se podrá implementar más rápidamente cuando sea necesario, argumenta. Le hemos pedido que nos explique esta idea.
¿Por qué necesitamos un nuevo tipo de ética para la IA?
Con esta pandemia, nos hemos encontrado de repente en una situación en la que la gente habla bastante sobre si la IA podría ayudar, si podría salvar vidas. Pero la crisis ha dejado claro que no tenemos procedimientos éticos lo suficientemente sólidos para que la IA se use de manera segura, y desde luego que no hay ninguno que se pueda implementar rápidamente.
¿Qué tiene de malo la ética que ya tenemos?
Pasé los últimos años revisando las iniciativas sobre la ética de la IA, analizando sus limitaciones y buscando qué más necesitábamos. En comparación con la ética biomédica, por ejemplo, la ética que tenemos para la IA no es muy práctica. Se centra demasiado en los principios de alto nivel. Todos podemos estar de acuerdo en que la IA se debería usar para hacer el bien. Pero, ¿qué significa esto realmente? ¿Y qué pasa cuando los principios de alto nivel entran en conflicto?
Por ejemplo, la IA puede salvar vidas, pero quizás a costa de las libertades civiles como la privacidad. ¿Cómo abordar ese equilibrio de manera que resulte aceptable para muchas personas diferentes? No hemos descubierto cómo lidiar con los inevitables desacuerdos.
La ética de la inteligencia artificial también tiende a responder a los problemas existentes en vez de anticiparse a los nuevos. La mayoría de los problemas que las personas debaten hoy en día en torno al sesgo algorítmico surgieron cuando las cosas de alto perfil salieron mal, como con las decisiones de vigilancia y libertad condicional.
Pero la ética debe ser proactiva y prepararse para lo que podría salir mal, no para lo que ya pasó. Obviamente, no podemos predecir el futuro. Pero a medida que estos sistemas se vuelvan más potentes y se usen en ámbitos de mayor desafío, los riesgos serán aún más importantes.
¿Qué oportunidades hemos perdido al no disponer de estos procedimientos?
Es fácil exagerar lo que habría sido posible, pero es poco probable que la IA hubiera tenido un papel importante en esta crisis. Los sistemas de aprendizaje automático no son lo suficientemente maduros.
Pero hay unos casos en los que la IA se está probando en diagnósticos médicos o para la asignación de recursos entre hospitales. Pudimos haber usado ese tipo de sistemas de manera más amplia, reduciendo parte de la carga sobre la atención médica, si hubieran sido diseñados con la ética en mente desde el principio.
Con la asignación de recursos en concreto, hay que decidir qué pacientes tienen la máxima prioridad. Se necesita un marco ético antes de usar la IA para ayudar con ese tipo de decisiones.
Entonces, ¿la ética de urgencia es simplemente un llamamiento a mejorar la existente ética de la IA?
Eso es solo una parte. El hecho de no disponer de procesos sólidos y prácticos para la ética de la IA hace que las cosas resulten más difíciles en una situación de crisis. Pero en momentos como este también existe una mayor necesidad de transparencia. La gente habla mucho sobre la falta de transparencia en los sistemas de aprendizaje automático como las cajas negras. Pero hay otro tipo de transparencia relacionada con cómo se utilizan los sistemas.
Se trata de algo especialmente importante en una crisis, cuando los gobiernos y las organizaciones toman decisiones urgentes que suponen beneficios. ¿Quién tiene la prioridad en cuanto la salud? ¿Cómo salvar vidas sin destruir la economía? Si la IA se utiliza en la toma de decisiones públicas, la transparencia es más importante que nunca.
¿Qué debe cambiar?
Debemos pensar en la ética de una manera diferente. No debería ser algo que ocurra aparte o después, algo que nos frene. Tendría que formar parte de cómo construimos estos sistemas desde el principio: la ética desde el propio diseño.
A veces me parece que la palabra “ética” no es la más adecuada. Creemos que los investigadores e ingenieros de aprendizaje automático deberían estar capacitados para entender las implicaciones de lo que están construyendo, ya sea una investigación fundamental, como por ejemplo, diseñar un nuevo algoritmo de aprendizaje reforzado o algo más práctico como desarrollar una aplicación de atención médica. Si su trabajo encuentra el camino hacia productos y servicios del mundo real, ¿cómo funcionaría? ¿Qué tipo de problemas podría plantear?
Algo de esto ya ha empezado a ocurrir. Estamos trabajando con algunos investigadores de IA que acaban de iniciar sus carreras, hablando con ellos sobre cómo llevar esta forma de pensar a su trabajo. Es un poco experimental, para ver qué pasa. Pero incluso NeurIPS [la conferencia líder en IA] ya pide a los investigadores incluir una explicación al final de sus artículos describiendo los posibles impactos sociales de su trabajo.
Usted afirma que necesitamos personas con experiencia técnica en todos los niveles de diseño y uso de IA. ¿Por qué?
No estoy diciendo que la experiencia técnica sea el alfa y omega de la ética, pero se trata de una visión que debe estar presente. Y no quiero parecer de la opinión de que toda la responsabilidad recae en los investigadores, porque muchas de las decisiones importantes sobre cómo usar la IA se toman más arriba en la cadena, por la industria o por los gobiernos.
Pero me preocupa que las personas que toman esas decisiones no siempre entiendan completamente las formas en las que podría salir mal. Por eso, hay que involucrar a las personas con experiencia técnica. Nuestras intuiciones sobre lo que la IA puede realizar no son muy confiables.
Lo que hace falta en todos los niveles de desarrollo de IA son personas que realmente entiendan los detalles del aprendizaje automático para trabajar con las personas que comprenden la ética. No obstante, la colaboración interdisciplinaria resulta difícil. La gente con diferentes áreas de especialización suelen hablar de cosas de una manera distinta. Lo que un investigador de aprendizaje automático entiende por privacidad puede ser muy diferente de lo que entiende un abogado, lo que puede dar lugar a una conversación de sordos. Por eso es importante que estos grupos tan distintos se acostumbren a trabajar juntos.
Usted lucha por una gran reforma institucional y cultural. ¿Qué le hace pensar que la gente querrá hacer esto en vez de crear juntas de ética o comités de supervisión, que siempre me hacen suspirar un poco porque suelen ser ineficaces?
Sí, yo también suspiro. Pero creo que esta crisis está obligando a las personas a ver la importancia de las soluciones prácticas. A lo mejor en lugar de decir: “Oh, tengamos juntas de supervisión”, dirán: “Debemos llevar esto a cabo correctamente”.