Logiciels de spatialisation : Panoramix & Spat Revolution à l’Ircam

La mise en espace du son n’est pas une problématique nouvelle : de manière acoustique d’abord, en plaçant les instruments de musique à des endroits précis, puis en électroacoustique par le biais d’utilisation de consoles de mixage et de logiciels de plus en plus performants. Mais c’est l’image, avec l’apparition de la réalité virtuelle (RV), qui va relancer l’engouement pour ces techniques. Nous avons rencontré Thibaut Carpentier (CNRS/Ircam), Frédérick Rousseau (Ircam) et enfin le compositeur Yan Maresz. Ils nous présentent leur point de vue sur l’utilisation et l’évolution de la spatialisation sonore.

Capture d'écran du logiciel Spat Revolution - Document © IRCAM

Capture d’écran du logiciel Spat Revolution – Document © IRCAM

Une brève histoire du mouvement

Notre oreille est un organe incroyablement perfectionné. Grâce à elle et à toutes les analyses effectuées par notre cerveau, nous évitons bien des dangers et nous nous retournons en général du bon côté lorsqu’on nous interpelle… Mais au-delà de ces modes fonctionnels, exploitons-nous suffisamment les finesses des capacités de détermination de provenance d’un son que nous offre notre perception ?

Dans la culture occidentale, historiquement, d’autres dimensions sonores telles que la hauteur, le rythme ou le niveau ont constitué les bases du langage et de la théorie musicale. Néanmoins, l’utilisation de l’information spatiale comme méthode d’expression musicale tout au long de l’histoire de la musique n’est plus à prouver. Le terme de musique antiphonale (ou chant à contre-parties) fait référence au style liturgique du chant, dans lequel au moins deux des chœurs situés dans différents endroits chantent alternativement. Ce mode d’écriture, qui met en espace les sources sonores, s’est développé depuis le Moyen Âge jusqu’au XIXe siècle (Requiem de Berlioz par exemple, comprenant quatre ensembles de cuivres antiphoniques placés dans les coins de la scène).

Mais, quelques siècles plus tard, la standardisation des systèmes de reproduction stéréo a limité la dimension sonore spatiale. Les systèmes à deux canaux permettent seulement de positionner les sources sonores dans la ligne entre les haut-parleurs, réduisant considérablement la dimension spatiale.

Malgré les tentatives éparses d’effectuer de la musique spatiale tout au long du XXe siècle (Music of the Spheres de Rued Langgaard ou le Poème électronique d’Edgar Varèse par exemple), ce n’est que lors des dernières décennies que l’intérêt pour la diffusion sonore immersive a reçu une nouvelle impulsion : les systèmes multi-haut-parleurs et les théories du son spatialisé ont été grandement développés et étudiés.

C’est l’industrie du cinéma qui a fait le plus avancer toutes ces technologies, sans vraiment avoir de direction esthétique quant à leur utilisation. En effet, quelle est la pertinence d’un son immersif quand l’action se déroule en face de soi, sur un écran bien plat ? Mais on assiste ces derniers mois à un véritable engouement pour toutes les technologies liées au son immersif, en particulier lors de l’écoute au casque. Cette écoute, dite binaurale, permet de placer des objets sonores tout autour de l’auditeur et est parfaitement adaptée au monde de la RV. YouTube, par exemple, proposant désormais des contenus en RV (ou 360°), on comprend bien l’enjeu économique. Reste maintenant aux créateurs de tout bord (théâtre, arts plastiques, musique, …) à s’emparer de ces outils, à les détourner, et surtout à nous fabriquer des machines à rêve sonore !

L’Ircam, pionnier en la matière

Ce centre de recherche travaille depuis toujours sur le mouvement du son et sa perception. L’environnement de programmation Max/MSP a permis de développer des outils (appelés “objets” dans ce langage) très perfectionnés. L’équipe “Espaces acoustiques et cognitifs”, dirigée par Olivier Warusfel, a créé Spat il y a plus de vingt ans. C’est une sorte de sous-programme qui permet de gérer la spatialisation de plusieurs sources sonores. En tant qu’objet Max/MSP, il propose une interface où on peut modifier soit directement des paramètres acoustiques, soit, et c’est la grande force de cet objet, un “mélange” de ces paramètres, regroupés sous un terme plus en rapport avec la perception, défini par de longues recherches en psycho-acoustique. En outre, un effet de réverbération très sophistiqué est lié aux déplacements de nos sons.

Cela fait donc deux décennies que cet outil se perfectionne, s’enrichit, jusqu’à aboutir au logiciel Spat Revolution, sur lequel un gros travail d’interfaçage graphique a été réalisé, et qui propose enfin un logiciel “prêt à l’emploi”. Parallèlement à cette concrétisation commerciale, l’Ircam propose aussi un logiciel ayant le même moteur audio (les algorithmes qui l’animent sont à peu près identiques), mais plus ouvert aux expérimentations, donc nécessitant peut-être un peu plus de prise en main : Panoramix.

Panoramix

C’est une potion magique de la spatialisation ! La partie recherche de l’Ircam associe des chercheurs de l’Ircam, du CNRS et de l’Université Pierre et Marie Curie. Nous avons rencontré Thibaut Carpentier, ingénieur du CNRS qui travaille à l’Ircam depuis presque une dizaine d’années, au sein de l’équipe “Espaces acoustiques et cognitifs”. Il a développé avec elle l’application Panoramix.

Panoramix se présente donc sous l’apparence d’une console ?

Thibaut Carpentier : Nous voulions pouvoir entrer dans le logiciel tout ce qui provient d’une session d’enregistrement : Panoramix est donc très flexible sur les formats d’entrée.

On crée des tranches d’entrée, comme dans une console, mais au format désiré (mono, stéréo, multicanal). On crée ensuite un ou plusieurs bus de sortie, qui vont être en charge de la spatialisation. On définit librement le format de ces bus (stéréo, binaural, Ambisonics, …). En même temps que se crée le bus apparaît une unité de réverbération au même format : c’est le paradigme de Spat, la spatialisation et l’effet de salle sont associés. On peut envoyer une entrée vers un ou plusieurs bus et on aura alors la possibilité de faire des mixages à des formats différents. Par exemple, il est possible de contrôler le mixage au casque grâce à un bus binaural mais d’exporter le mixage final en multicanal, pour un ensemble de haut-parleurs.

 

La suite de cet article dans le N°214 de l’Actualité de la Scénographie > Acheter ce numéro