Científicos y artistas crean una sinfonía a partir de una imagen del corazón de nuestra galaxia
November 22, 2023 El Universo , NoticiasPuede ser interpretada por cualquier orquesta como banda sonora de una parte del universo.
Una sinfonía basada en algoritmos con toque humano se inspira en datos astronómicos, captados por potentes telescopios, para interpretar imágenes cósmicas de forma diferente a la radiación y con un sutil toque artístico. Se llama “Donde convergen las líneas paralelas”.
Los músicos siempre han buscado inspiración en el cielo. Ahora, una nueva colaboración permite utilizar los datos reales de los telescopios de la NASA como base para crear música original que pueda ser interpretada por humanos.
Desde el año 2020, el proyecto de “sonificación” del Centro de Rayos X Chandra de la NASA ha traducido los datos digitales obtenidos por los telescopios en notas y sonidos. Este proceso permite al oyente experimentar los datos a través del sentido del oído en lugar de verlos como imágenes, una forma más común de presentar los datos astronómicos.
Nueva fase
Una nueva fase del proyecto de sonificación ha llevado los datos astronómicos a un territorio diferente. Trabajando con la compositora Sophie Kastner, el equipo ha desarrollado versiones de los datos que pueden ser tocadas por los músicos. La partitura completa y las partituras para los instrumentos individuales están disponibles en Internet. Cualquier orquesta puede interpretarlos.
“Es como escribir una historia ficticia que se basa en gran medida en hechos reales”, dice Kastner en un comunicado. “Estamos tomando los datos del espacio que han sido traducidos a sonido y dándoles un nuevo y humano giro”.
Centro de la Vía Láctea
Este programa piloto se centra en los datos de una pequeña región en el centro de nuestra galaxia, la Vía Láctea, donde reside un agujero negro supermasivo. Los telescopios espaciales Chandra, Hubble y Spitzer de la NASA han estudiado esta zona, que abarca unos 400 años luz. La pieza del Centro Galáctico de Sophie Kastner se titula “Donde convergen las líneas paralelas”.
“Hemos estado trabajando con estos datos, tomados en rayos X, luz visible e infrarroja, durante años”, explica Kimberly Arcand, científica de visualización y tecnología emergente de Chandra. “Traducir estos datos en sonido fue un gran paso, y ahora con Sophie estamos probando algo completamente nuevo para nosotros”.
Sonificación de datos
Los datos se traducen en sonidos mediante un proceso llamado sonificación, que consiste en asignar matemáticamente los valores de los datos a parámetros sonoros como el volumen, el tono, el timbre o la duración.
De esta forma, se puede representar la información visual o numérica de forma auditiva, lo que permite explorar los datos de una manera diferente y acceder a ellos a personas con discapacidad visual.
La sonificación de datos astronómicos se basa en los datos recogidos por los telescopios espaciales de la NASA, que observan el universo en diferentes longitudes de onda de la luz, como los rayos X, el infrarrojo o el visible.
Estos datos se convierten en sonidos que varían según la posición, el brillo, el color o el movimiento de las fuentes cósmicas.
Algoritmos como banda sonora
En el proceso de sonificación de datos, los ordenadores utilizan algoritmos para asignar matemáticamente los datos digitales de estos telescopios a sonidos que los humanos pueden percibir. Sin embargo, los músicos humanos tienen capacidades diferentes a las de los ordenadores.
Kastner eligió centrarse en pequeñas secciones de la imagen para hacer los datos más reproducibles para las personas. Esto también le permitió crear focos de atención sobre ciertas partes de la imagen que se pasan por alto fácilmente cuando se reproduce la sonificación completa.
“Me gusta pensar que estoy creando pequeñas viñetas de los datos, y acercándome a ellos casi como si estuviera escribiendo una banda sonora para la imagen“, señala Kastner. “Quería llamar la atención del oyente sobre pequeños eventos en el conjunto de datos”.
Toque humano
El resultado de este proyecto piloto es una nueva composición basada e influenciada por los datos reales de los telescopios de la NASA, pero con un toque humano.
“En cierto modo, esto es sólo otra forma de que los humanos interactúen con el cielo nocturno como lo han hecho a lo largo de la historia registrada”, dice Arcand. “Estamos usando herramientas diferentes, pero el concepto de inspirarse en los cielos para hacer arte sigue siendo el mismo”.
Kastner espera ampliar este proyecto piloto de composición a otros objetos de la colección de sonificación de datos de Chandra.