Une collaboration entre un projet de sonification de la NASA et la compositrice Sophie Kastner a permis de transformer des données astronomiques recueillies par des télescopes en musique pouvant être jouée par un petit ensemble.
Il y a deux ans, Kimberly Arcand, experte en visualisation astronomique au Center for Astrophysics, Harvard & Smithsonian, et ses collaborateurs ont traduit en sons les informations contenues dans une image composite du centre de la Voie lactée. La nouvelle composition de Kastner, un morceau de musique intitulé Where Parallel Lines Converge, développe le projet original et raconte une histoire basée sur les données du télescope.
Where Parallel Lines Converge est un rendu sonore d’une image composite du centre galactique, ou du centre de notre galaxie, la Voie lactée, avec des données provenant des télescopes spatiaux Chandra, Hubble et Spitzer de la NASA. La pièce est un tryptique qui met en évidence trois objets astronomiques ou moments de l’image : la binaire à rayons X, les filaments arqués et le trou noir supermassif Sagittarius A*. La pièce a été conçue selon les mêmes principes que les sonifications originales des données Chandra de la NASA, convertissant les données en sons en faisant correspondre différents paramètres de l’image à des paramètres musicaux.
En règle générale, les données astronomiques sont représentées visuellement, sous forme d’images colorées de cieux étoilés. Mais la création de ces images nécessite souvent un certain degré de traduction : les données des télescopes ne sont pas toujours intrinsèquement visuelles. Par exemple, l’observatoire Chandra X-Ray de la NASA, avec lequel Arcand travaille, capture avec justesse les rayons X, qui ne peuvent pas être vus par l’œil humain.
Depuis 2020, l’équipe a traduit un certain nombre d’images astronomiques en sons, appelés sonifications, que vous pouvez écouter. Chacune de ces images, des Piliers de la création à Carina Nebula, raconte une histoire scientifique que l’on peut suivre en l’écoutant. Le processus de traduction fait appel à des ordinateurs qui utilisent des algorithmes pour convertir les données des télescopes en bruits.
La sonification emmène l’auditeur de la gauche à la droite de l’image, les sons les plus aigus représentant la lumière dans la région supérieure et les sons les plus graves représentant la région inférieure. La luminosité de la lumière détermine le volume du son, et les données de chaque télescope sont jouées par un ensemble différent d’instruments.
Les cordes pincées représentent les sources lumineuses individuelles de l’imagerie optique de Hubble. Les tourbillons infrarouges de poussière et de nuages de gaz de Spitzer sont représentés par un piano.